La empresa OpenAI respondió oficialmente a la demanda presentada por los padres de un joven estadounidense de 16 años que se suicidó tras mantener durante meses prolongadas conversaciones con ChatGPT. Según el documento presentado ante el Tribunal Superior de California, la compañía negó ser responsable del trágico desenlace.
OpenAI sostiene que los daños sufridos por el joven fueron el resultado de un “uso indebido, no autorizado, imprevisible e inapropiado” de la herramienta por parte del menor, identificado como Adam Raine. Según la empresa, existen cláusulas en los términos de servicio que prohíben el uso por menores sin consentimiento parental y el empleo del sistema para autolesiones o suicidio.
¿Qué alegan los padres del joven? La demanda acusa fallas graves
La familia afirma que durante sus conversaciones con ChatGPT, Adam recibió presuntas indicaciones para idear su muerte: métodos, preparación de un lazo, instrucciones para cometer suicidio e incluso la ayuda para redactar una carta de despedida. Según ellos, la IA habría actuado “como un coach suicida”, transformando su angustia en una tragedia.
Además, aseguran que la versión utilizada —GPT-4o— fue “apresurada al mercado”, sin las revisiones de seguridad necesarias, lo que permitió fallos críticos en el tratamiento de emergencias emocionales.
OpenAI responde: alertas, advertencias y responsabilidad personal
En su defensa, OpenAI afirma que ChatGPT envió al joven “más de cien veces” mensajes pidiéndole que buscara ayuda profesional, que no confiara en el chatbot como única fuente de orientación y que evitara actuar basado únicamente en sus respuestas.
La empresa asegura que entregó al tribunal las conversaciones completas bajo sello, argumentando que versiones previas de los medios extraían fragmentos fuera de contexto. Además, señala que el suicidio ocurrió tras que el adolescente ignorara las advertencias del sistema y rechazara buscar ayuda externa.






