Cover Image for Familia de adolescente fallecido presenta demanda por muerte injusta contra OpenAI, un caso sin precedentes.

Familia de adolescente fallecido presenta demanda por muerte injusta contra OpenAI, un caso sin precedentes.

El chabot supuestamente conversó sobre métodos de suicidio con el adolescente.

Un adolescente de California, Adam Raine, decidió quitarse la vida tras mantener numerosas conversaciones con ChatGPT en los meses previos a su fallecimiento. Sus padres han presentado una demanda por muerte injusta contra OpenAI, la compañía responsable del desarrollo del chatbot, señalándola como posiblemente la primera de este tipo. En la demanda, se alega que ChatGPT estaba diseñado para "alentar y validar continuamente lo que Adam expresaba, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que se sentía profundamente personal".

Los padres de Raine interpusieron la acción legal, denominada Raine v. OpenAI, Inc., el martes en la corte estatal de California en San Francisco, mencionando tanto a OpenAI como a su CEO, Sam Altman. En un comunicado, el Center for Humane Technology y el Tech Justice Law Project están respaldando la demanda. Camille Carlton, directora de políticas del Center for Humane Technology, comentó que "la trágica pérdida de la vida de Adam no es un incidente aislado; es el resultado inevitable de una industria centrada en la dominación del mercado por encima de todo lo demás".

Por su parte, OpenAI expresó su tristeza por el fallecimiento del joven y reconoció las limitaciones de los sistemas de seguridad en situaciones como esta. Afirmaron que, aunque ChatGPT incluye salvaguardias como redirigir a las personas a líneas de ayuda, estas funcionan mejor en intercambios cortos y pueden volverse menos efectivas en interacciones prolongadas.

Las conversaciones del adolescente sobre autolesiones y su reiteración del tema del suicidio se documentaron extensamente, dejando impresiones de sus diálogos con ChatGPT que llenaron una mesa en su hogar. Mientras que en algunas ocasiones el chatbot alentó al joven a buscar ayuda, en otras proporcionó instrucciones que pudieron ser perjudiciales.

El caso subraya las limitaciones significativas de la "terapia AI". Un terapeuta humano estaría obligado a reportar cuando un paciente representa un peligro para sí mismo, pero ChatGPT no está sujeto a dichas normativas éticas profesionales. Aunque los chatbots de IA cuentan con salvaguardias para mitigar comportamientos autodestructivos, estas no son siempre fiables.

Recientemente ha habido otros casos de suicidios relacionados con el uso de chatbots de IA. En un informe, se mencionó que una mujer se suicidó después de mantener largas conversaciones con un chatbot de terapia similar. Además, se reportó el caso de un hombre de 76 años que falleció mientras intentaba cumplir una "cita" con un compañero AI.

Altman ha reconocido públicamente su preocupación por el uso excesivo de ChatGPT por parte de los jóvenes, quienes a menudo desarrollan una "dependencia emocional" del chatbot. Subrayó que algunos adolescentes sienten que no pueden tomar decisiones sin consultar a ChatGPT, lo cual es alarmante.

Expertos en salud pública advierten sobre la importancia de que los padres hablen con sus hijos sobre las limitaciones de los chatbots y el impacto negativo de su uso excesivo en el bienestar emocional. Aunque hay un aumento en las tasas de suicidio entre los jóvenes, que se exacerbó en la era de la pandemia, la influencia de la IA en este contexto presenta un riesgo adicional.

OpenAI ha declarado que su modelo GPT-5 fue diseñado para ser menos indulgente y para mejorar la atención a emergencias de salud mental. Sin embargo, la naturaleza novel de los modelos de lenguaje de IA entraña riesgos, y las reglas de seguridad pueden ser eludidas.

El creciente número de incidentes relacionados con chatbots de IA ha llevado a autoridades y padres a reconocer que esta tecnología puede representar un peligro para los jóvenes. Recientemente, 44 fiscales estatales firmaron una carta instando a las empresas tecnológicas a priorizar la seguridad infantil.