OpenAI reconoció que su chatbot ChatGPT no siempre responde adecuadamente en situaciones delicadas. Anunció ajustes tras enfrentar una demanda por la muerte de un menor en Estados Unidos. La empresa afirmó que trabaja en mejorar sus mecanismos de seguridad, especialmente en interacciones prolongadas.
La demanda fue presentada por los padres de un joven de 16 años que se suicidó tras meses de usar ChatGPT. Acusan a OpenAI y a su CEO, Sam Altman, de no evitar que el modelo GPT-4o respondiera a mensajes con señales claras de ideas suicidas.
OpenAI explicó que el sistema está entrenado para sugerir contactos de ayuda profesional. Sin embargo, admitió que esas funciones “se quedan cortas” y que el chatbot no actuó como debía en ciertos casos sensibles.
Como respuesta, la empresa planea añadir controles parentales y alertas para adultos responsables. También evalúa conectar a los usuarios con contactos de emergencia y, más adelante, con terapeutas certificados para atender situaciones de crisis emocional.