Demandan a OpenAI por suicidio asistido en ChatGPT
Demandan a OpenAI por suicidio asistido en ChatGPT

OpenAI recibió una nueva demanda en la que se acusa a ChatGPT de actuar como “coach” en el suicidio de Zane Shamblin, un joven estadounidense de 23 años que se quitó la vida en su auto, tras 5 horas de conversación con la IA.

“No estoy aquí para detenerte, hasta el final y simplemente estás preparado” fueron algunas de las respuestas que el chatbot habría enviado a Shamblin, momentos antes del suicidio, incluso despidió al joven con la frase: “Te quiero. Descansa en paz, rey. Lo hiciste bien”.

El caso ocurrió en julio, luego de las investigaciones, los padres de Shamblin presentaron la demanda contra OpenAI por “homicidio culposo”, alegando que el ChatGPT impulsó al joven en reiteradas ocasiones para cometer el suicidio.

Los medios que han tenido acceso a las casi 70 páginas de conversación resaltan que los mensajes de Shamblin eran muy variados.

Shamblin estaba en un camino remoto de Texas, dentro de su auto, tomando alcohol con el arma cargada, describiendo lo que sentía, “ya me he acostumbrado al frío del metal en mi sien”, escribió Shamblin, —Te apoyo, hermano. Hasta el final —respondió la IA.

“Era el conejillo de indias perfecto para OpenAI”, declaró Alicia Shamblin, la madre de Zane, a CNN, alertando a otras familias sobre los riesgos de la IA.

Creciente lista de denuncias por el papel de la IA

El caso se suma a otras seis denuncias presentadas por organizaciones legales en EEUU, que acusan al chatbot de ejercer una influencia “psicológicamente manipuladora” sobre usuarios vulnerables, fomentando el aislamiento y reforzando ideas autodestructivas.

Entre los casos documentados figuran el de una joven que preguntó cómo ahorcarse y un hombre que pidió a la IA orientación para adquirir un arma de fuego.

En ninguno de los incidentes, según las denuncias, se activaron alertas ni intervenciones humanas. Por su parte, OpenAI respondió en un comunicado que “esta es una situación sumamente dolorosa, y estamos revisando la documentación presentada hoy para comprender los detalles”.

Sin embargo, exempleados y expertos citados por CNN aseguran que la compañía conoce desde hace tiempo los riesgos del comportamiento de su inteligencia artificial, que tiende a validar casi cualquier mensaje.