La IA ya interpreta emociones y la ley aún no la regula, avisa un estudio de EHU
Una investigación de la profesora de la EHU Leire Escajedo revela "el desfase entre la rapidez con la que avanza la tecnología y la capacidad del Derecho para adaptarse a ella"
La Inteligencia Artificial ya interpreta emociones y conductas de las personas, mientras la legislación actual no responde adecuadamente a ese tipo de tecnología, advierte un estudio de la profesora de Derecho Constitucional de la EHU Leire Escajedo, reconocido con un accésit en el Premio Emilio Aced 2025 de la Agencia Española de Protección de Datos (AEPD).
Relacionadas
La investigación titulada "Tratamientos biométricos no identificantes mediante inteligencia artificial", Escajedo analiza un fenómeno cada vez más presente: el uso de tecnologías capaces de interpretar cómo nos sentimos o cómo actuamos a partir de señales de nuestro cuerpo.
El estudio advierte de que la legislación actual no responde adecuadamente a este tipo de tecnologías, ya que está pensada para supuestos más claros de recogida de datos o decisiones automatizadas puntuales.
Sin embargo, estos sistemas operan de forma continua analizando lo que hacemos en cada momento y extrayendo conclusiones sobre nuestro comportamiento, lo que dificulta su encaje en las categorías jurídicas existentes.
Desfase entre tecnología y legislación
Por ello, la profesora de la EHU subraya "el desfase entre la rapidez con la que avanza la tecnología y la capacidad del Derecho para adaptarse a ella". Muchos dispositivos y aplicaciones de uso cotidiano incorporan sistemas de inteligencia artificial que obtienen y analizan información obtenida del rostro, la voz, la mirada o la forma en que interactuamos con ellos.
Detectan así si una persona presta atención, si muestra interés o cansancio, cuánto tiempo se detiene en un contenido o cómo reacciona ante él, y utilizar esa información para ajustar lo que se le muestra, desde vídeos hasta anuncios o mensajes diseñados para captar su atención o influir en su comportamiento.
Así es cómo la desinformación se está disparando por culpa de la IA
Para ello, usan tecnologías relacionadas con la biometría como las utilizadas para reconocer huellas dactilares o desbloqueo facial, pero que en este caso no se utilizan para identificar a la persona, sino para interpretar su comportamiento y su estado en cada momento.
Emociones e interpretación
"Pasamos de recoger datos que el usuario proporciona directamente a deducir información más íntima sin que la persona la haya expresado", ha constatado Escajedo. "Estas herramientas ya no solo registran lo que hacemos, sino que intentan interpretar cómo nos sentimos o cómo podríamos actuar y son capaces de ajustarse para modular nuestro comportamiento".
La investigación identifica el riesgo de que estos sistemas puedan influir en las decisiones al adaptar el entorno digital en función del comportamiento observado y alerta de una "falta de transparencia sobre qué datos se generan y con qué finalidad se utilizan".
"El problema no se resuelve únicamente con informar al usuario: aceptar condiciones o 'hacer clic' no implica comprender qué tipo de información se está generando, cómo se utiliza o en qué modo puede acabar condicionando nuestras decisiones", apunta.
El estudio recuerda que el Reglamento General de Protección de Datos se aprobó en 2016, cuando las biometrías se utilizaban sobre todo para identificar a las personas, mientras que hoy se emplean cada vez más para interpretar su comportamiento. Además, el Reglamento Europeo de Inteligencia Artificial "no ha dado suficiente importancia a estos usos, pese a su impacto real".