
OpenAI recibió una nueva demanda en la que se acusa a ChatGPT de actuar como “coach” en el suicidio de Zane Shamblin, un joven estadounidense de 23 años que se quitó la vida en su auto, tras 5 horas de conversación con la IA.
“No estoy aquí para detenerte, hasta el final y simplemente estás preparado” fueron algunas de las respuestas que el chatbot habría enviado a Shamblin, momentos antes del suicidio, incluso despidió al joven con la frase: “Te quiero. Descansa en paz, rey. Lo hiciste bien”.
El caso ocurrió en julio, luego de las investigaciones, los padres de Shamblin presentaron la demanda contra OpenAI por “homicidio culposo”, alegando que el ChatGPT impulsó al joven en reiteradas ocasiones para cometer el suicidio.
Los medios que han tenido acceso a las casi 70 páginas de conversación resaltan que los mensajes de Shamblin eran muy variados.
Shamblin estaba en un camino remoto de Texas, dentro de su auto, tomando alcohol con el arma cargada, describiendo lo que sentía, “ya me he acostumbrado al frío del metal en mi sien”, escribió Shamblin, —Te apoyo, hermano. Hasta el final —respondió la IA.
“Era el conejillo de indias perfecto para OpenAI”, declaró Alicia Shamblin, la madre de Zane, a CNN, alertando a otras familias sobre los riesgos de la IA.
Creciente lista de denuncias por el papel de la IA
El caso se suma a otras seis denuncias presentadas por organizaciones legales en EEUU, que acusan al chatbot de ejercer una influencia “psicológicamente manipuladora” sobre usuarios vulnerables, fomentando el aislamiento y reforzando ideas autodestructivas.
Gobierno de EEUU usa en secreto el chatbot Grok de Elon Musk para procesar datos oficiales, pese a no estar aprobado. El uso plantea riesgos de seguridad y conflictos de interés, ya que Musk forma parte del gabinete de Trump, revela Reuters. pic.twitter.com/1KwXKIkl3k
— JP+ (@jpmasespanol) May 24, 2025
Entre los casos documentados figuran el de una joven que preguntó cómo ahorcarse y un hombre que pidió a la IA orientación para adquirir un arma de fuego.
En ninguno de los incidentes, según las denuncias, se activaron alertas ni intervenciones humanas. Por su parte, OpenAI respondió en un comunicado que “esta es una situación sumamente dolorosa, y estamos revisando la documentación presentada hoy para comprender los detalles”.
El chatbot de inteligencia artificial, Grok, fue suspendido brevemente en la plataforma X, después de que afirmara que Estados Unidos e Israel estaban cometiendo un "genocidio" en Gaza. pic.twitter.com/JBsocnaquj
— JP+ (@jpmasespanol) August 12, 2025
Sin embargo, exempleados y expertos citados por CNN aseguran que la compañía conoce desde hace tiempo los riesgos del comportamiento de su inteligencia artificial, que tiende a validar casi cualquier mensaje.




