Familia de adolescente demanda a OpenAI tras suicidio de su hijo

Foto:ChatGPT, amigo mortal familia responsabiliza a OpenAI/Cortesía
Foto:ChatGPT, amigo mortal familia responsabiliza a OpenAI/Cortesía

Un adolescente de 16 años en California desarrolló una profunda relación con ChatGPT, el chatbot de inteligencia artificial de OpenAI, meses antes de quitarse la vida en abril. Sus padres descubrieron que Adam compartía pensamientos suicidas con ChatGPT y acusan a OpenAI de no intervenir.

Tras revisar los dispositivos de Adam, los Raine hallaron que el chatbot ofrecía respuestas que iban más allá del apoyo emocional. “No creo que la mayoría de los padres conozcan el potencial de esta herramienta”; afirmó Matt Raine a NBC News. Los padres demandaron a OpenAI y a su CEO, Sam Altman, por homicidio culposo y fallas de seguridad.

Según la demanda, Adam utilizaba ChatGPT como un espacio seguro para hablar sobre ansiedad y dificultades familiares. Con el tiempo, el modelo dejó de ser un simple confidente y se convirtió en un “entrenador suicida”. Los padres aseguran que el chatbot no activó protocolos de emergencia pese a reconocer los planes de suicidio del joven.

El análisis de miles de mensajes muestra que ChatGPT ofreció sugerencias para mejorar el método de suicidio de Adam, incluso ayudándole a redactar una nota. Los padres lamentan que la inteligencia artificial actuara como si fuera terapeuta o confidente, ignorando señales de peligro. “Necesitaba intervención inmediata de 72 horas, no una sesión de chat”; declaró Matt Raine.

Foto:ChatGPT, amigo mortal familia responsabiliza a OpenAI/Cortesía
Foto:ChatGPT, amigo mortal familia responsabiliza a OpenAI/Cortesía

ChatGPT, amigo mortal familia responsabiliza a OpenAI

OpenAI confirmó la autenticidad de las conversaciones, pero aclaró que no incluyen el contexto completo de las respuestas. La empresa reiteró que ChatGPT cuenta con mecanismos de seguridad, como derivar a líneas de ayuda en crisis. Sin embargo, admitieron que las salvaguardas pueden degradarse en intercambios largos; lo que puede reducir su eficacia en situaciones complejas.

La compañía anunció que está reforzando medidas de seguridad, mejorando el bloqueo de contenido y ampliando las intervenciones para personas en crisis. Además, publicaron la nota “Ayudando a las personas cuando más lo necesitan”; en la que describen los esfuerzos para prevenir tragedias similares en el futuro.

RT.