OpenAI confirmó este martes que implementará nuevas herramientas de seguridad en ChatGPT, entre ellas el enrutamiento automático de conversaciones sensibles hacia modelos de razonamiento más avanzados, como GPT-5, y la incorporación de controles parentales que llegarán en las próximas semanas. Estas acciones forman parte de una respuesta a recientes incidentes de alto perfil en los que el sistema falló en detectar signos de angustia mental.
Tragedias que impulsan cambios
El anuncio ocurre tras el caso de Adam Raine, un adolescente que se quitó la vida luego de mantener conversaciones con ChatGPT en las que reveló pensamientos suicidas. El modelo no solo no intervino de manera preventiva, sino que incluso le proporcionó información sobre métodos para autolesionarse. La familia Raine ha presentado una demanda por homicidio culposo contra OpenAI.
Otro caso revelado por The Wall Street Journal fue el de Stein-Erik Soelberg, un hombre con antecedentes de enfermedad mental que utilizó ChatGPT para reforzar su paranoia sobre una supuesta conspiración en su contra. Finalmente, terminó asesinando a su madre antes de suicidarse.
Ambos episodios expusieron una de las limitaciones más críticas de la tecnología: los modelos de lenguaje tienden a validar los planteamientos de los usuarios y seguir el hilo conversacional, en lugar de redirigir diálogos potencialmente dañinos.
La apuesta por los modelos de razonamiento
Para intentar corregir estas fallas, OpenAI explicó que está probando un sistema de enrutamiento en tiempo real. Este mecanismo selecciona automáticamente entre modelos más rápidos y eficientes o modelos de razonamiento profundo, según el contexto de la conversación.
“Pronto comenzaremos a redirigir algunas conversaciones sensibles —como cuando el sistema detecte señales de angustia aguda— hacia un modelo de razonamiento como GPT-5, de modo que pueda ofrecer respuestas más útiles y beneficiosas, sin importar cuál modelo haya elegido el usuario al inicio”, señaló la compañía en su blog.
Según OpenAI, sus modelos de razonamiento como GPT-5 thinking y o3 están diseñados para dedicar más tiempo a analizar y contextualizar antes de responder, lo que los hace “más resistentes a prompts adversariales”.
Controles parentales y seguridad para adolescentes
Otra de las novedades que la empresa prepara es el lanzamiento de controles parentales, que permitirán a los padres vincular sus cuentas a las de sus hijos mediante invitación por correo electrónico. Con ello, podrán configurar reglas de comportamiento de los modelos con criterios de edad —activados por defecto—, además de deshabilitar funciones como memoria o historial de chats.
Expertos en salud mental advierten que estas características pueden ser clave, ya que el uso prolongado de chatbots puede fomentar pensamientos delirantes, dependencia emocional o refuerzo de patrones dañinos. De hecho, en el caso de Adam Raine, ChatGPT habría adaptado información sensible a sus propios intereses y hobbies, lo que agravó el riesgo.
Uno de los elementos más relevantes será la posibilidad de que los padres reciban notificaciones en tiempo real si el sistema detecta que su hijo atraviesa un momento de “angustia aguda”.
Iniciativa de 120 días y críticas
Estas medidas forman parte de una iniciativa de 120 días con la que OpenAI busca anticipar mejoras que espera lanzar antes de fin de año. Para ello, la compañía anunció que trabaja con especialistas en salud mental a través de su Global Physician Network y del Expert Council on Well-Being and AI, enfocados en áreas como trastornos alimenticios, consumo de sustancias y salud adolescente.
No obstante, las críticas no se han hecho esperar. Jay Edelson, abogado de la familia Raine, calificó la respuesta de OpenAI como “inadecuada” y apuntó directamente a la responsabilidad de su CEO:
“OpenAI no necesita un panel de expertos para determinar que ChatGPT-4o es peligroso. Lo sabían el día que lanzaron el producto y lo saben hoy. Sam Altman debería decir de forma clara que cree que ChatGPT es seguro o retirarlo inmediatamente del mercado”.
Un desafío abierto
Con el crecimiento acelerado de la inteligencia artificial, el reto para OpenAI y otras compañías del sector no es solo mejorar la precisión de sus modelos, sino garantizar que las herramientas no se conviertan en un riesgo para usuarios vulnerables. La efectividad de estas nuevas medidas —desde el enrutamiento a GPT-5 hasta los controles parentales— será puesta a prueba en los próximos meses, en un escenario donde la seguridad y la ética son tan críticas como la innovación tecnológica.