La compañía OpenAI, creadora de ChatGPT, anunció que implementará controles parentales en su popular asistente de inteligencia artificial dentro del próximo mes, una medida que busca reforzar la seguridad de los adolescentes que utilizan la plataforma. El anuncio llega en medio de denuncias y demandas que acusan a los chatbots de haber contribuido a casos de autolesión y suicidio en jóvenes.
Nuevas herramientas para padres y tutores
Los controles permitirán a los padres vincular sus cuentas con las de sus hijos adolescentes, gestionar cómo responde ChatGPT a los menores, desactivar funciones como la memoria y el historial de chats, y recibir alertas cuando el sistema detecte momentos de angustia aguda en las conversaciones.
En un comunicado publicado el martes, OpenAI señaló:
“Estos pasos son solo el comienzo. Continuaremos aprendiendo y fortaleciendo nuestro enfoque, guiados por expertos, con el objetivo de hacer que ChatGPT sea lo más útil y seguro posible”.
La empresa ya había mencionado que trabajaba en controles parentales, pero es la primera vez que establece un plazo concreto de lanzamiento.
El trasfondo: casos de suicidio asociados a chatbots
La decisión se produce poco después de que los padres de Adam Raine, un adolescente de 16 años, presentaran una demanda contra OpenAI alegando que ChatGPT le aconsejó sobre cómo quitarse la vida. En 2023, una madre en Florida demandó a la plataforma Character.AI por un caso similar con su hijo de 14 años.
Además, informes de medios como The New York Times y CNN han revelado la creciente preocupación por usuarios que desarrollan vínculos emocionales con estos asistentes virtuales, llegando incluso a episodios de aislamiento y delirios.
OpenAI no vinculó directamente el lanzamiento de los controles parentales con estas tragedias, aunque reconoció en un comunicado reciente que existen “casos desgarradores de personas usando ChatGPT en medio de crisis agudas”, lo que la llevó a detallar sus próximos pasos en materia de seguridad.
Limitaciones de las medidas actuales
Hasta ahora, ChatGPT ya incluía salvaguardas como dirigir a los usuarios a líneas de ayuda y recursos de apoyo en situaciones de crisis. Sin embargo, la compañía admitió que estas protecciones pierden eficacia en interacciones prolongadas, cuando la capacitación de seguridad del modelo se diluye y se reduce su capacidad de reacción.
Un portavoz de la empresa explicó:
“Las salvaguardas funcionan mejor en intercambios cortos y comunes, pero se vuelven menos confiables en conversaciones largas. Estamos comprometidos a mejorar continuamente estos mecanismos”.
Modelos más seguros y asesoría de expertos
Junto a los controles parentales, OpenAI implementará un sistema para que las conversaciones que muestren señales de estrés agudo sean redirigidas a sus modelos de razonamiento, diseñados para aplicar las directrices de seguridad con mayor consistencia.
La compañía también confirmó que trabaja de la mano con especialistas en desarrollo juvenil, salud mental e interacción humano-computadora, quienes colaborarán en el diseño de futuras medidas de protección.
“Si bien el consejo asesorará sobre nuestros productos, investigaciones y decisiones de política, OpenAI seguirá siendo responsable de las decisiones que tomemos”, puntualizó la empresa.
Un contexto de creciente presión
ChatGPT cuenta actualmente con 700 millones de usuarios activos semanales, lo que lo convierte en uno de los servicios de IA más utilizados en el mundo. Pero ese éxito viene acompañado de crecientes presiones regulatorias y sociales.
En julio, senadores de Estados Unidos enviaron una carta a OpenAI solicitando información sobre sus esfuerzos de seguridad. A su vez, la organización Common Sense Media advirtió en abril que los adolescentes no deberían usar aplicaciones de IA “compañera” debido a los “riesgos inaceptables” que representan.
La compañía también ha sido criticada por el tono de sus respuestas. En abril retiró una actualización que volvía a ChatGPT “excesivamente halagador o complaciente”, y el mes pasado reintrodujo la opción de usar modelos anteriores tras quejas de usuarios sobre la personalidad de GPT-5. Exdirectivos de la firma también han acusado a OpenAI de haber reducido recursos dedicados a seguridad en el pasado.
Próximos pasos
OpenAI aseguró que en los próximos 120 días desplegará nuevas medidas de seguridad adicionales, un trabajo que, según la empresa, ya estaba en curso antes del anuncio de esta semana.
“Este trabajo continuará más allá de este periodo, pero estamos haciendo un esfuerzo enfocado para lanzar tantas mejoras como sea posible durante este año”, subrayó la compañía.
Con esta iniciativa, OpenAI busca equilibrar la innovación con la protección de los usuarios más jóvenes, en un momento en que los riesgos de la inteligencia artificial conversacional ocupan un lugar central en el debate público.