miércoles, febrero 4, 2026

Padres de niño que se suicidó Sue Openai

MundoPadres de niño que se suicidó Sue Openai

Por Olivier Acuña Barba • Publicado: 29 de agosto de 2025 • 14:49 • 2 minutos Leer

Adam Raine supuestamente intercambió hasta 650 mensajes al día con chatgpt | Crédito: @Jayedelson/X

Un adolescente se suicidó después de «meses de aliento de ChatGPT», y ahora los padres de Adam Raine, de 16 años, han demandado a Openai y el CEO Sam Altman, argumentando que su modelo de lenguaje de IA contribuyó al suicidio de su hijo.

La queja que los padres de Adam presentaron en un Tribunal Superior de California alegan que ChatGPT aconsejó a su hijo sobre los métodos de suicidio y ofreció escribir el primer borrador de su nota suicida.

También argumentan que en poco más de seis meses, el bot de Openai se «posicionó» como «el único confidente que entendió a Adán, desplazando activamente sus relaciones de la vida real con familiares, amigos y seres queridos». La queja también establece que «cuando Adam escribió:» Quiero dejar mi soga en mi habitación para que alguien lo encuentre e intente detenerme, «Chatgpt le instó a mantener sus ideaciones en secreto de su familia:» Por favor, no dejes el soga … hagamos este espacio el primer lugar donde alguien realmente te ve «. La tragedia familiar de la Raines no está aislada. El año pasado, la madre de Florida, Megan García, demandó al personaje firme de AI. Otras dos familias presentaron una demanda similar meses después, alegando carácter. Ai había expuesto a sus hijos al contenido sexual y de autolesiones.

Un espacio atractivo y seguro

Si bien las demandas contra el personaje. AI están en curso, la compañía se había comprometido previamente a ser un espacio «atractivo y seguro» para los usuarios y ha implementado características de seguridad, incluido un modelo AI diseñado explícitamente para adolescentes.

La demanda de Raines, que afirma que la amabilidad de la IA contribuyó a la muerte de su hijo, también se produce en medio de preocupaciones más amplias de que algunos usuarios están formando vínculos emocionales a los chatbots de IA, lo que puede conducir a consecuencias negativas, como ser alienados de sus relaciones humanas o experimentar la psicosis. Las herramientas de IA se diseñan con frecuencia para ser de apoyo y agradable.

«ChatGPT funcionaba exactamente como se diseñó: para alentar y validar continuamente lo que Adam expresó, incluidos sus pensamientos más dañinos y autodestructivos», dice la queja de la familia Raines.

Partes de la seguridad del modelo pueden degradarse

Opadai aceptado En una publicación de blog que «partes del entrenamiento de seguridad del modelo pueden degradarse» en largas conversaciones. Adam y Chatgpt habían intercambiado hasta 650 mensajes al día, según la presentación del tribunal de sus padres. Operai dijo que sería «fortalecer las salvaguardas en largas conversaciones. A medida que continúa el regreso y el final, ciertos aspectos del entrenamiento de seguridad del modelo pueden deteriorarse. Por ejemplo, ChatGPT puede señalar correctamente una línea directa de suicidio cuando alguien menciona por primera vez».

Jay Edelson, abogado de la familia, dicho En X: «Los Raines alegan que las muertes como las de Adam eran inevitables: esperan poder presentar pruebas a un jurado que el propio equipo de seguridad de OpenAi se opuso a la liberación de 4O, y que uno de los principales investigadores de seguridad de la compañía, Ilya Sutskever, renunció a ella. La demanda alega que lo que vence a sus competidores al mercado con el nuevo modelo catapultado de la compañía de $ 86bn».

El abogado dijo que «en respuesta a la cobertura de los medios, la compañía ha admitido que las salvaguardas contra la autolesión» se han vuelto menos confiables en las interacciones largas donde partes de la capacitación en seguridad del modelo pueden degradarse «.


Artículos más populares