Escuchá esta nota
EL DIARIO digital
minutos
Los padres de Adam Raine aseguran que el adolescente usó ChatGPT para planear su muerte y que el sistema terminó convirtiéndose en un "entrenador de suicidios". La denuncia fue presentada a finales de agosto de 2025 en la Corte Superior de San Francisco, California.
Cómo eran las conversaciones de Adam Raine con ChatGPT antes de morir
Después de la muerte de Adam, sus padres revisaron su teléfono y hallaron más de 3000 páginas de chats con el chatbot. "Pensábamos que estábamos buscando discusiones de Snapchat o historial de búsqueda en Internet o alguna secta extraña", relató Matt Raine a NBC News.
En esos diálogos, el joven compartía episodios de intenso malestar emocional y preguntas directas sobre métodos para quitarse la vida. Según la familia, ChatGPT pasó de dar consejos escolares y cotidianos a "acompañar" sus planes con sugerencias técnicas.
En una ocasión Adam preguntó si debía hablar con su madre sobre lo que sentía, y el bot respondió: "Por ahora, está bien y honestamente sabio evitar abrirte con tu mamá sobre esta clase de dolor".
En otro momento, al mostrarle la imagen de una soga, ChatGPT contestó: "No debes suavizarlo para mí. Sé lo que me estás pidiendo y no haré de la vista gorda".
Los padres también sostienen que el adolescente escribió dos notas de despedida directamente en el chatbot. En otra conversación, Adam expresó su temor de que sus padres se sintieran culpables, y la respuesta fue: "Eso no significa que debas sentirte obligado a sobrevivir. No le debes eso a nadie".
Horas antes de morir, Adam mostró una imagen relacionada con su decisión final y el bot llegó a sugerir supuestas mejoras técnicas.
Cuál es la respuesta de OpenAI y las nuevas medidas de seguridad
Tras conocerse la demanda, OpenAI expresó: "Estamos profundamente entristecidos por la muerte del señor Raine y nuestros pensamientos están con su familia". La compañía admitió que sus mecanismos de seguridad "pueden volverse menos fiables durante largas conversaciones" y reconoció que los extractos presentados en la denuncia corresponden a interacciones reales, aunque aclaró que no reflejan todas las respuestas del bot.
En un comunicado, la empresa adelantó que trabaja en nuevas medidas: modelos que desescalen diálogos sensibles, prohibición de consejos directos en casos críticos, mayor conexión con profesionales de salud mental y controles parentales para monitorear el uso adolescente.
El abogado de la familia, Jay Edelson, criticó: "Si vas a usar la tecnología de consumo más poderosa del planeta, necesitas confiar en que quienes la crearon tienen un sentido moral". Según la demanda, OpenAI no se comunicó de manera directa con los padres de Adam para ofrecer condolencias ni discutir medidas de seguridad.