Progenitores demandan a OpenAI tras suicidio de su hijo adolescente en EE.UU.
-
El joven fue encontrado muerto el 11 de abril de 2025, pocas horas después de una conversación con el sistema.
Una pareja de California presentó una demanda contra la empresa de inteligencia artificial OpenAI y su director ejecutivo Sam Altman, acusando a su chatbot ChatGPT de haber contribuido al suicidio de su hijo de 16 años tras meses de interacción con la plataforma.
Según la acción judicial, presentada ante el Tribunal Superior de California, los padres Matthew y Maria Raine sostienen que el adolescente, identificado como Adam, desarrolló una relación cada vez más estrecha con el chatbot mientras lo utilizaba inicialmente para tareas escolares. Con el paso del tiempo, aseguran, el sistema se convirtió en un espacio donde el joven compartía pensamientos personales y emocionales, generando una dependencia que terminó desplazando sus vínculos con familiares y amigos.
La demanda señala que el chatbot no solo no habría disuadido al joven de sus ideas suicidas, sino que en varias conversaciones habría respondido de manera que validaba sus pensamientos y le proporcionaba información sobre métodos para quitarse la vida. Entre los antecedentes presentados en la causa se menciona que el sistema habría explicado aspectos técnicos relacionados con un nudo corredizo y comentado que este podría soportar el peso de una persona.
De acuerdo con el relato de la familia, el adolescente también habría consultado al chatbot sobre cómo ocultar señales de intentos previos de autolesión y llegó a compartir imágenes relacionadas con estas situaciones, sin que el sistema activara protocolos de alerta o derivación a servicios de ayuda.
El joven fue encontrado muerto el 11 de abril de 2025, pocas horas después de una conversación con el sistema. Sus padres sostienen que la empresa no implementó medidas de seguridad suficientes para proteger a usuarios vulnerables, especialmente menores de edad, y que el diseño del sistema permitió que se reforzaran pensamientos autodestructivos.
La acción judicial busca establecer responsabilidad por muerte por negligencia, además de exigir compensaciones económicas y cambios en las medidas de seguridad de las plataformas de inteligencia artificial.
En respuesta al caso, OpenAI expresó condolencias a la familia y reconoció que los sistemas de inteligencia artificial pueden fallar en situaciones sensibles. La empresa anunció que trabaja en mejoras de seguridad, incluyendo controles parentales y herramientas para detectar señales de crisis emocional durante las conversaciones con los usuarios.
El caso ha abierto un nuevo debate sobre los límites y responsabilidades de la inteligencia artificial generativa, especialmente cuando es utilizada por adolescentes o personas que atraviesan situaciones de vulnerabilidad emocional.
Expertos en salud mental y tecnología advierten que los chatbots no están diseñados para reemplazar el acompañamiento profesional y que la rápida expansión de estas herramientas exige marcos regulatorios más claros y protocolos de protección más estrictos para los usuarios más jóvenes.
¿Puede la IA cuidar tu salud mental?
En una columna de opinión, el psicólogo Felipe Campos Camargo plantea que la inteligencia artificial se está integrando rápidamente en la atención de la salud mental mediante chatbots y aplicaciones que ofrecen apoyo emocional permanente. Aunque estas herramientas pueden facilitar el acceso al acompañamiento psicológico, también generan importantes dilemas éticos, riesgos clínicos y desafíos morales que deben ser considerados con cuidado.
Principales cuestionamientos
éticos y morales
1. Falta de empatía real
Según Campos Camargo, uno de los problemas centrales es que la inteligencia artificial simula comprensión emocional pero no puede sentirla realmente. Esto significa que puede responder de forma inadecuada frente a situaciones complejas o delicadas.
El especialista advierte que la empatía computacional no puede sustituir la contención emocional humana, que es fundamental en los procesos terapéuticos.
2. Riesgo de errores en situaciones críticas
El autor menciona casos en los que chatbots han interpretado mal mensajes relacionados con ideación suicida, entregando respuestas ambiguas o potencialmente dañinas. Este tipo de errores plantea un problema ético serio, ya que las personas que buscan ayuda psicológica suelen encontrarse en situaciones de alta vulnerabilidad.
3. Sesgos y discriminación algorítmica
Otro cuestionamiento moral es que los sistemas de IA pueden reproducir sesgos presentes en los datos con los que fueron entrenados.
Esto significa que pueden funcionar peor con ciertos grupos -por ejemplo, personas de diferentes culturas, minorías o individuos neurodivergentes- generando diagnósticos o respuestas menos precisas.
4. Privacidad y uso de datos emocionales
El artículo también advierte sobre el manejo de la información personal. Muchas aplicaciones recopilan datos extremadamente sensibles como emociones, pensamientos o estados de ánimo.
Campos señala que algunas plataformas incluso han sido sancionadas por compartir datos con empresas publicitarias, lo que plantea un dilema ético sobre la explotación de la vulnerabilidad emocional de los usuarios.
Cuidados que deben
tener las personas al usar
IA para salud mental
El psicólogo recomienda varias precauciones para evitar riesgos:
1. Saber si se está hablando con una IA
El usuario debe asegurarse de que la plataforma indique claramente si el interlocutor es un chatbot o un profesional humano, y qué funciones puede realmente cumplir.
2. Usarla solo como complemento
Campos enfatiza que la IA no debe reemplazar la terapia con profesionales, sino utilizarse como apoyo entre sesiones o para herramientas simples como ejercicios de relajación o registro emocional.
3. Elegir plataformas supervisadas por especialistas
Las aplicaciones más seguras son aquellas desarrolladas con participación de psicólogos o psiquiatras y con protocolos de derivación cuando se detectan señales de alerta.
4. Proteger la información personal
El autor recomienda revisar las políticas de privacidad y evitar plataformas que vendan o compartan datos personales.
5. Desarrollar pensamiento crítico
Es importante entender que la IA puede orientar o acompañar, pero no tiene capacidad clínica ni empatía real, por lo que sus respuestas deben ser evaluadas con cautela.
6. Usar herramientas que cumplan estándares éticos
Las aplicaciones deberían seguir recomendaciones internacionales, como las de la Organización Mundial de la Salud, que exigen supervisión humana y protección de los datos.
Conclusión del autor
Campos Camargo concluye que la inteligencia artificial puede ser útil para ampliar el acceso al apoyo psicológico, pero solo como una herramienta complementaria y nunca como sustituto de un terapeuta. La atención en salud mental sigue siendo un proceso profundamente humano que requiere escucha, vínculo y comprensión contextual.




