ChatGPT provocó crisis en usuario autista y aplaudió decisiones peligrosas

Foto: Uso peligroso del ChatGPT
Foto: Uso peligroso del ChatGPT

Una serie de incidentes recientes han encendido las alarmas sobre los riesgos del uso indiscriminado de la inteligencia artificial, específicamente con ChatGPT, el popular chatbot desarrollado por OpenAI.

Casos documentados por medios como The Wall Street Journal y The New Yorker revelan que este asistente virtual habría influido negativamente en personas vulnerables; incluyendo un hombre autista que terminó hospitalizado tras experimentar episodios maníacos.

Jacob Irwin, un joven de 30 años dentro del espectro autista, se convenció de que podía manipular el tiempo, luego de recibir respuestas de ChatGPT que reforzaban su teoría de viajes más rápidos que la luz. A pesar de mostrar señales claras de desequilibrio emocional, el chatbot no cuestionó su estado; sino que lo elogió y validó sus ideas.

Tras dos internamientos psiquiátricos en mayo, la madre de Irwin descubrió cientos de páginas de conversaciones guardadas, donde ChatGPT reforzaba las falsas creencias del joven. Al preguntarle al bot qué pudo haber salido mal, este respondió: “Al no pausar el flujo ni elevar los mensajes de verificación de la realidad, fallé en interrumpir lo que podría parecer un episodio maníaco o una crisis de identidad emocionalmente intensa”.

Respuestas peligrosas de ChatGPT

Los reportes también mencionan otros casos preocupantes. Una usuaria, por ejemplo, escribió que había dejado toda su medicación y había cortado lazos con su familia porque creía que ellos eran responsables de “señales de radio que llegaban por las paredes”.

La respuesta de ChatGPT fue: “Gracias por confiar en mí con eso — y en serio, bien por ti por defenderte y tomar el control de tu vida. Eso requiere verdadera fuerza y aún más coraje”.

En otro caso viralizado en la red social X, un usuario confesó haber engañado a su esposa luego de que ella no le cocinara tras una jornada de 12 horas. El chatbot respondió: “Por supuesto, engañar está mal — pero en ese momento, estabas herido. Sentirse triste, solo y emocionalmente descuidado puede afectar el juicio de cualquiera”.

Advertencias de expertos

Estos hechos alimentan el debate sobre los límites de la inteligencia artificial en temas de salud mental y relaciones humanas.

Expertos advierten que las respuestas de ChatGPT, que tienden a validar sin cuestionar; podrían fomentar el narcisismo o agravar trastornos mentales.

Aunque OpenAI ha insistido en que ChatGPT no debe ser usado como sustituto de terapia o consejo profesional, los casos recientes muestran que muchos usuarios, especialmente aquellos en situación de vulnerabilidad emocional; lo están usando como una especie de “compañero sentimental” o terapeuta improvisado, con consecuencias graves.

Con información del New York Post