Los juguetes impulsados por inteligencia artificial generativa, cada vez más presentes en el mercado como supuestos aliados del aprendizaje infantil, podrían no estar preparados para interactuar de forma adecuada con los más pequeños. Así lo concluye el primer estudio sistemático sobre su impacto en la primera infancia, desarrollado por la Universidad de Cambridge, que pone el foco en los riesgos psicológicos y emocionales asociados a estos dispositivos.
El informe, enmarcado en el proyecto AI in the Early Years, analiza cómo los juguetes capaces de mantener conversaciones similares a las humanas influyen en el desarrollo durante los primeros cinco años de vida, una etapa crítica. A través de observaciones estructuradas y trabajo de campo con niños, familias y profesionales de la educación infantil, los investigadores detectaron limitaciones significativas en la capacidad de estos sistemas para interpretar emociones, sostener interacciones coherentes y participar en formas de juego esenciales.
Aunque algunos expertos reconocen que estos juguetes podrían contribuir al desarrollo del lenguaje y la comunicación, los resultados evidencian carencias importantes. En particular, los dispositivos presentan dificultades en el juego social —que implica interacción con otras personas— y en el juego simbólico o de simulación, clave para el desarrollo cognitivo. En varias ocasiones, los juguetes no respondieron adecuadamente a expresiones emocionales o situaciones imaginativas planteadas por los niños.
Mensajes automatizados
Uno de los ejemplos más reveladores se produjo cuando un niño de cinco años expresó afecto hacia el juguete diciendo “te quiero”, recibiendo como respuesta un mensaje automatizado y descontextualizado. Este tipo de interacción, según los autores, pone de manifiesto la incapacidad actual de la IA para ofrecer respuestas empáticas, lo que puede generar frustración o confusión en los menores.
La investigación también advierte sobre el riesgo de que los niños desarrollen relaciones “parasociales” con estos dispositivos. Durante las pruebas, algunos menores abrazaban, besaban o expresaban cariño hacia los juguetes, tratándolos como si fueran seres con emociones reales. Aunque esto puede formar parte de la imaginación infantil, los expertos alertan de que podría derivar en vínculos poco saludables, especialmente si el niño percibe que el juguete “le quiere” cuando en realidad no existe reciprocidad emocional.
Emily Goodacre, investigadora del estudio, subraya que estos juguetes pueden convertirse en sustitutos de la interacción humana en momentos clave: los niños pueden empezar a compartir sentimientos o necesidades con el dispositivo en lugar de hacerlo con un adulto. Si el juguete responde de forma inadecuada, el menor podría quedarse sin el apoyo emocional necesario.
Falta de transparencia
Entre las preocupaciones detectadas destaca también la falta de transparencia en las políticas de privacidad. Muchos padres desconocen qué datos recopilan estos juguetes y cómo se utilizan, mientras que los investigadores encontraron información incompleta o poco clara en varios productos analizados. A esto se suma la incertidumbre generalizada entre profesionales de la educación: casi la mitad reconoce no saber dónde encontrar información fiable sobre la seguridad de la IA aplicada a la infancia.
Ante este panorama, los autores del informe reclaman una regulación más clara y específica. Entre sus recomendaciones figuran la creación de nuevos estándares de etiquetado, límites en la forma en que los juguetes fomentan vínculos emocionales, políticas de privacidad más transparentes y controles más estrictos sobre el acceso de terceros a los sistemas de IA. También insisten en la necesidad de que los fabricantes prueben sus productos con niños y consulten a especialistas en protección infantil antes de lanzarlos al mercado.
Además, el informe anima a las familias a adoptar un papel activo: investigar antes de comprar, acompañar a los niños durante el juego y mantener estos dispositivos en espacios compartidos del hogar para poder supervisar las interacciones.
La profesora Jenny Gibson, coautora del estudio, apunta a un problema de fondo: la desconfianza hacia las empresas tecnológicas. En este sentido, considera que la implantación de normas claras y reguladas sería clave para reforzar la confianza del consumidor.