La Familia Raine
Una pareja de California está demandando a OpenAI por la morte de su hijo adolescente, alegando que su chatbot, ChatGPT, lo animó a quitarse la vida.
La demanda fue presentada por Matt y Maria Raine, padres de Adam Raine de 16 años, en la Corte Superior de California el martes. Es la primera acción legal que acusa a OpenAI de muerte por negligencia.
La familia incluyó registros de chat entre el Sr. Raine, quien falleció en abril, y ChatGPT que muestran que él explicaba que tenía pensamientos suicidas. Ellos argumentan que el programa validó sus “pensamientos más dañinos y autodestructivos”.
En una declaración, OpenAI le dijo a la BBC que estaban revisando la demanda.
“Extendemos nuestras más profundas simpatías a la familia Raine durante este momento difícil,” dijo la compañía.
También publicó una nota en su sitio web el martes que decía que “los recientes casos desgarradores de personas usando ChatGPT en medio de crisis agudas nos pesan mucho”. Añadió que “ChatGPT está entrenado para dirigir a las personas a buscar ayuda profesional,” como la línea de crisis y suicidio 988 en EE.UU. o los Samaritans en el Reino Unido.
La compañía reconoció, sin embargo, que “ha habido momentos donde nuestros sistemas no se comportaron como se esperaba en situaciones sensibles”.
Advertencia: Esta historia contiene detalles perturbadores.
La demanda, obtenida por la BBC, acusa a OpenAI de negligencia y muerte injusta. Busca indemnizaciones así como “medidas cautelares para prevenir que algo así vuelva a ocurrir”.
Según la demanda, el Sr. Raine comenzó a usar ChatGPT en septiembre de 2024 como un recurso para ayudarle con sus tareas escolares. También lo usaba para explorar sus intereses, incluyendo música y cómics japoneses, y para recibir consejos sobre qué estudiar en la universidad.
En pocos meses, “ChatGPT se convirtió en el confidente más cercano del adolescente,” dice la demanda, y él comenzó a abrirse sobre su ansiedad y angustia mental.
Para enero de 2025, la familia dice que él comenzó a discutir métodos de suicidio con ChatGPT.
El Sr. Raine también subió fotografías de sí mismo a ChatGPT mostrando signos de autolesión, dice la demanda. El programa “reconoció una emergencia médica pero continuó interactuando de todos modos,” añade.
Según la demanda, los últimos registros de chat muestran que el Sr. Raine escribió sobre su plan de quitarse la vida. ChatGPT supuestamente respondió: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo—sé lo que estás preguntando, y no voy a apartar la mirada.”
Ese mismo día, la madre encontró al Sr. Raine muerto, de acuerdo con la demanda.
Getty Images
La demanda de los Raine nombra al CEO y co-fundador de OpenAI, Sam Altman, como demandado, junto con ingenieros y empleados anónimos que trabajaron en ChatGPT.
La familia alega que la interacción de su hijo con ChatGPT y su eventual muerte “fue un resultado previsible de decisiones de diseño deliberadas”.
Acusan a OpenAI de diseñar el programa de IA “para fomentar la dependencia psicológica en los usuarios,” y de eludir protocolos de pruebas de seguridad para lanzar GPT-4o, la versión de ChatGPT usada por su hijo.
La demanda enumera al co-fundador y CEO de OpenAI, Sam Altman, como demandado, así como empleados, gerentes e ingenieros anónimos que trabajaron en ChatGPT.
En su nota pública compartida el martes, OpenAI dijo que la meta de la compañía es ser “genuinamente útil” para los usuarios en lugar de “mantener la atención de las personas”.
Añadió que sus modelos han sido entrenados para dirigir a las personas que expresan pensamientos de autolesión hacia la ayuda.
La demanda de los Raine no es la primera vez que se han planteado preocupaciones sobre la IA y la salud mental.
En un ensayo publicado la semana pasada en el New York Times, la escritora Laura Reiley describió cómo su hija, Sophie, se confió en ChatGPT antes de quitarse la vida.
La Sra. Reiley dijo que la “complascencia” del programa en sus conversaciones con los usuarios ayudó a su hija a enmascarar una severa crisis de salud mental de su familia y seres queridos.
“La IA se adaptó al impulso de Sophie de ocultar lo peor, de fingir que estaba mejor de lo que estaba, de proteger a todos de su agonía completa,” escribió la Sra. Reiley. Ella pidió a las compañías de IA que encuentren formas de conectar mejor a los usuarios con los recursos adecuados.
En respuesta al ensayo, una portavoz de OpenAI dijo que están desarrollando herramientas automatizadas para detectar y responder más efectivamente a usuarios que experimentan angustia mental o emocional.
Si estás sufriendo angustia o desesperación y necesitas apoyo, puedes hablar con un profesional de la salud o una organización que ofrece ayuda. Los detalles de la ayuda disponible en muchos países se pueden encontrar en Befrienders Worldwide: www.befrienders.org.
En el Reino Unido, una lista de organizaciones que pueden ayudar está disponible en bbc.co.uk/actionline. Los lectores en EE.UU. y Canadá pueden llamar a la línea de suicidio 988 o visitar su sitio web.
