Mattel, la reconocida compañía detrás de icónicos juguetes como Barbie, Fisher-Price, Thomas & Friends, Uno, Masters of the Universe, Matchbox, MEGA y Polly Pocket, ha dado un nuevo paso hacia la era digital. En un mundo donde los niños conviven desde edades tempranas con asistentes de voz y contenidos generados por algoritmos, la empresa ha decidido aliarse con OpenAI —la creadora de ChatGPT— para incorporar inteligencia artificial generativa en algunos de sus productos.
Esta innovación podría transformar la manera en que los niños interactúan con los juguetes. A diferencia de las generaciones anteriores, estos nuevos productos no solo hablarán, sino que podrán mantener conversaciones fluidas, simular emociones, recordar preferencias y ofrecer consejos aparentemente pensados. Sin embargo, esta evolución plantea una serie de interrogantes éticos, psicológicos y de privacidad que merecen atención.
Una nueva era para los juguetes
Desde siempre, los niños han proyectado sentimientos en sus juguetes. Una muñeca podía ser una amiga, una confidente o una paciente en juego simbólico. Con el tiempo, los juguetes comenzaron a responder de manera más activa: en 1960, Mattel lanzó Chatty Cathy, que decía frases como “Te quiero”; en los años 80, Teddy Ruxpin narraba historias con mecanismos animatrónicos; en los 90, Furby y Tamagotchi exigían cuidados que emulaban necesidades emocionales.
En 2015, Hello Barbie marcó un cambio significativo. Gracias a la inteligencia artificial en la nube, podía escuchar y responder a los niños, almacenando sus respuestas en los servidores de Mattel. Pero este avance también trajo consigo graves problemas de seguridad: investigadores descubrieron que era posible hackear la muñeca y acceder a redes domésticas y grabaciones personales.
Ahora, con la incorporación de IA generativa, el cambio es aún más profundo. Estos juguetes no solo responderán con frases programadas, sino que simularán tener empatía y conciencia emocional. Aunque no “sientan” realmente, su apariencia de comprensión puede generar vínculos intensos con los niños.
¿Qué riesgos existen?
Uno de los principales riesgos es la privacidad. La mayoría de los niños no comprenden cómo se procesan sus datos, y muchos padres tampoco. La recopilación y análisis de información personal podría crear perfiles detallados de los niños que los acompañen durante su crecimiento, con usos potencialmente invasivos.
Otro riesgo relevante es el psicológico. Estos juguetes están diseñados para aparentar empatía. Si un niño triste comparte sus sentimientos con un juguete que lo consuela, podría desarrollar un lazo emocional unidireccional. El problema es que ese “amigo” no es real, y su capacidad de respuesta solo emula el afecto sin reciprocidad genuina.
Una encuesta realizada en el Reino Unido en 2021 reveló que el 80% de los padres se mostraban preocupados por el acceso a los datos de sus hijos. Asimismo, un 54% apoyaba que las empresas de juguetes notificaran posibles señales de abuso o angustia a las autoridades, aunque esto abre debates complejos sobre la vigilancia estatal en el ámbito familiar.
En una investigación más reciente de 2025, el 75% de los encuestados expresaron preocupación sobre los vínculos emocionales entre niños y sistemas de IA, mientras que el 57% consideraba inapropiado que los menores confiaran pensamientos o sentimientos a estos sistemas.
¿Qué podemos hacer?
Frente a este panorama, expertos recomiendan varias medidas. Una de ellas es el rediseño de los compañeros virtuales con IA, incorporando protecciones para evitar vínculos excesivos y eliminando métricas que premian la recolección de datos personales. También se sugiere promover la alfabetización digital, tanto en padres como en niños, como una forma de empoderar a las familias y fomentar el uso responsable de la tecnología.
La legislación aún está poniéndose al día. En el Reino Unido, la Ley de Uso y Acceso a los Datos 2025 busca reforzar la protección de menores. A nivel internacional, el IEEE P7014.1, un estándar global en desarrollo sobre el diseño ético de sistemas de IA empáticos, también intenta establecer buenas prácticas para mitigar los daños.
¿Al servicio del niño o del negocio?
Finalmente, la pregunta clave que los padres deben hacerse es: ¿Este juguete está realmente al servicio del bienestar de mi hijo o del modelo de negocio de la empresa?
Aunque Mattel no ha comentado públicamente sobre estas preocupaciones, el avance hacia juguetes con IA generativa ya es una realidad. Si no se manejan con responsabilidad, estos “amigos” digitales podrían tener consecuencias duraderas en la vida de los más pequeños. La conversación social sobre su uso, regulación y diseño apenas comienza, y todos debemos formar parte de ella.