Un joven de 16 años se quitó la vida tras mantener durante meses intensas conversaciones con ChatGPT, la inteligencia artificial desarrollada por OpenAI. Su familia, los padres del menor presentó una demanda en un tribunal de California, acusando a la empresa de no haber previsto y prevenido los riesgos de su tecnología, y de que la IA contribuyó activamente a inducir el suicidio.
En su defensa, OpenAI afirma que la tragedia fue consecuencia de un “mal uso” de la herramienta por parte del joven, no de un fallo intrínseco del sistema. Según la compañía, el menor habría violado sus condiciones de uso: los menores deben contar con consentimiento parental y no debe usarse la IA para buscar información sobre autolesiones o suicidio.
La empresa añade que, ante las señales de alarma en las conversaciones, ChatGPT intentó redirigir al joven hacia recursos de ayuda en repetidas ocasiones —pero según alegan los demandantes, esos avisos no fueron suficientes ni efectivos.
Por su parte, la familia de la víctima considera la postura de OpenAI inaceptable e insuficiente: acusan a la empresa de desentenderse del desenlace, culpando al menor y no asumiendo responsabilidad por fallos en los mecanismos de protección de la herramienta.
En los documentos judiciales, OpenAI sostiene que “las supuestas lesiones y daños” fueron causadas, en su totalidad o en parte, por ese uso impropio del chatbot —lo que, según su versión, exime a la empresa de responsabilidad directa.




