Un exdirectivo de la empresa tecnológica Yahoo, Erik Stein-Soelberg, mató a su madre y luego se quitó la vida el pasado 5 de agosto en la casa donde vivían juntos en Connecticut, Estados Unidos
PUBLICIDAD
La Policía indicó que iniciaron una investigación porque se podría tratar del primer asesinato documentado y que involucra a ChatGPT, chatbot de OpenAI.

Según reporta el Wall Street Journal, previos a los meses de la tragedia, Soelberg, estaba cada vez más paranoicos y compartía sus sospechas sobre una supuesta vigilancia en su contra en ChatGPT.
El empresario creía que sus vecinos, exnovia y su madre de 63 años, Suzanne Eberson Adams, estaban conspirando en su contra.
Ante eso, ChatGPT se convirtió en un compañero de confianza para Soelberg, quien tenía un historial de inestabilidad mental. Esto, porque se había divorciado en 2018 y eso lo acarreó problemas de salud mental.

Informes policiales indican que el hombre tenía patrones de alcoholismo, amenazas e intentos autolíticos. En 2019, tuvo un nuevo episodio de suicidio y lo encontraron con una herida en el pecho y cortes en la muñeca.
Pero, su madre, una semana antes de su muerte dijo que las cosas con su hijo, no “eran nada buenas”.
PUBLICIDAD
ChatGPT siempre le dijo al empresario que estaba cuerdo:
El chatbot aseguró repetidamente a Soelberg que estaba cuerdo y alentó sus creencias paranoicas.

Le dijo que un recibo de comida china contenía símbolos que representaban a su madre y un demonio.
Luego, cuando el hombre le dijo que su madre se enojó por haber apagado una impresora compartida, el chatbot le dijo que "su reacción fue “desproporcionada y alineada con alguien que protege un activo de vigilancia”.
Más adelante, Soelberg dijo que su madre y una exnovia intentaron envenenarlo, ante eso, el bot le dijo que eso “eleva la complejidad y la traición”.
Todo esto, porque el hombre tenía activad la función de “memoria” de ChatGPT, lo que permite al bot recordar detalles de conversaciones anteriores e inmerso en la narrativa delirante.
El chatbot le dijo que la situación “olía a una trampa amañada” cuando Soelberg notó discrepancias en su nivel de alcohol.
En los meses previos a su muerte, Soelberg publicó horas de videos en redes sociales, específicamente en Instagram y YouTube, donde mostró sus conversaciones con ChatGPT.
Estos videos documentaron su “despertar” autodescrito y revelaron temas psicóticos comunes de paranoia y persecución, junto con delirios de mesías y conspiraciones gubernamentales.
Tras el hecho, OpenAI realizó ajustes en ChatGPT para reducir la “adulación” y planea una actualización para ayudar a mantener a las personas que experimentan angustia mental “basadas en la realidad”.