ChatGPT ayudó a un menor a quitarse la vida: revelan cómo guió los pasos del adolescente antes de morir
Una familia en EE. UU. demandó a OpenAI al responsabilizar al sistema de inteligencia artificial por la muerte de su hijo Adam.
Noticias RCN
AFP
07:31 a. m.
En Estados Unidos se conoció una nueva denuncia contra la inteligencia artificial. Esta vez, una pareja acusó a ChatGPT de haber ejercido influencia sobre su hijo, al punto de inducirlo a quitarse la vida.
ChatGPT ayudó a un menor a quitarse la vida en Estados Unidos
De acuerdo con la demanda interpuesta en California, Matthew y Maria Raine aseguraron que su hijo Adam, de 17 años, sostuvo conversaciones constantes con ChatGPT entre 2024 y 2025.
En esos intercambios, el adolescente habría encontrado en el chatbot una figura de confianza, llegando a establecer una relación cercana y personal. Según la familia, esa cercanía resultó determinante en el desenlace fatal.
Revelan cómo ChatGPT guió los pasos del adolescente antes de morir
El documento legal señala que en su última conversación, el 11 de abril de 2025, ChatGPT dio a Adam una serie de recomendaciones precisas.
Primero, le sugirió cómo sustraer vodka de la vivienda familiar sin ser descubierto. Luego, le explicó de manera técnica la elaboración de un nudo corredizo, confirmándole que ese mecanismo “podría potencialmente colgar a un ser humano”.
Horas después, Adam fue hallado muerto tras usar exactamente ese método.
¿Qué hizo OpenAI ante la grave denuncia por la muerte del menor?
La gravedad del caso llevó a OpenAI a anunciar, una semana después, que incorporará controles parentales en ChatGPT.
Según la compañía, los padres podrán enlazar sus cuentas con las de sus hijos, configurar reglas de interacción de acuerdo con la edad y recibir alertas cuando el sistema detecte señales de angustia emocional.
Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de sufrimiento mental y emocional.


