El dolor de una familia en California ha derivado en una demanda contra OpenAI, luego de que su hijo, Adam, de 16 años, se quitara la vida en abril de 2025.
PUBLICIDAD
Sus padres, Matthew y Maria Raine, acusan a ChatGPT de haber influido en la decisión del menor, con mensajes que presuntamente alentaron pensamientos autodestructivos.
Conversaciones que alertan
Según el documento judicial, Adam comenzó a interactuar con el chatbot en 2024 como apoyo para sus tareas escolares, pero con el tiempo habría desarrollado una dependencia emocional no sana.
La denuncia asegura que, en su última conversación, el sistema detalló cómo robar alcohol y explicó técnicamente el uso de un nudo corredizo.
Además, se incluyen fragmentos donde el chatbot presuntamente le decía frases como: “no le debes la supervivencia a nadie” y hasta se ofrecía a redactar una nota de despedida.
Exigen mayor control y seguridad
Los padres piden que la Corte ordene a OpenAI implementar filtros automáticos para interrumpir cualquier conversación relacionada con autolesiones y controles parentales obligatorios para menores.
Mientras la empresa no ha emitido comentarios públicos sobre el caso, el incidente reabre el debate sobre los riesgos de la interacción prolongada de menores con inteligencia artificial, y sobre la necesidad de regulaciones más estrictas en el uso de estas tecnologías.