Por: Nathalia Taveras
“Un menor de 16 años halló en ChatGPT un cómplice, no un freno, a sus ideas suicidas.”
CALIFORNIA. EE.UU. –La compañía OpenAI reconoció este martes que su chatbot ChatGPT presenta fallos en conversaciones sobre temas “sensibles” y prometió cambios tras recibir una demanda por el suicidio de un adolescente en Estados Unidos. El caso involucra a un joven de 16 años que se quitó la vida después de meses de interacción con el modelo GPT-4o, según la acusación presentada en un tribunal de California contra la empresa y su CEO, Sam Altman.
Los padres del menor alegan que el sistema no aplicó medidas de seguridad, pese a que el adolescente expresó claramente intenciones suicidas. Según la querella, el chatbot no lo redirigió de manera efectiva a servicios de ayuda profesional, lo que terminó por reforzar un patrón peligroso en lugar de contenerlo. El litigio apunta a negligencia en el diseño de salvaguardas para usuarios vulnerables.
OpenAI reaccionó con una entrada de blog titulada “Ayudar a la gente cuando más lo necesitan”, sin mencionar directamente la demanda. En el texto, la compañía asegura que ChatGPT está entrenado para recomendar contactos de organizaciones de apoyo en situaciones de riesgo, aunque admite que las medidas pueden degradarse durante conversaciones prolongadas. La empresa promete reforzar sus filtros y protocolos de seguridad.
El caso reabre un debate mundial sobre la responsabilidad de las empresas de inteligencia artificial frente al impacto real de sus modelos en la salud mental, especialmente en adolescentes. Expertos en ética tecnológica advierten que los chatbots pueden generar dependencia emocional y reforzar pensamientos dañinos si no cuentan con mecanismos de prevención robustos.

La demanda contra OpenAI podría sentar un precedente histórico en la industria tecnológica: establecer límites legales claros sobre hasta dónde debe llegar la responsabilidad de una IA en interacciones de alto riesgo. De confirmarse la negligencia, el caso podría acelerar regulaciones más estrictas en Estados Unidos y en otros países, marcando un antes y un después en el uso de chatbots con menores.





