ChatGPT, Gemini, Copilot… los chatbots de inteligencia artificial generativa (IA generativa) nos asisten en tareas profesionales o en aspectos personales, desde resolver dudas o buscar información hasta organizarnos las vacaciones. Ahora bien, estas herramientas, aparentemente neutrales y objetivas, ¿realmente lo son?

Un estudio internacional liderado por la Universidad de L’Aquila (Italia) y con participación de la Universitat Oberta de Catalunya (UOC) ha constatado que los principales chatbots de IA sí han tomado medidas para evitar el sesgo de género, pero que aún les queda trabajo en lo que se refiere al edadismo.

La investigación, publicada en la revista Big Data & Society, pone en evidencia que los chatbots de IA generativa presentan sesgos significativos relacionados con la edad que ya afectan a los usuarios. El trabajo se ha realizado mediante entrevistas cualitativas, tratando a los modelos de IA como si fueran interlocutores humanos para identificar hasta qué punto reproducen estereotipos sociales en sus respuestas.

ALgunos chatbots no dan la misma respuesta a una consulta si supomne que el habla de una persona mayor o de una más joven. Creada con IA

Mireia Fernández-Ardèvol, investigadora del grupo de investigación Communication Networks and Social Change (CNSC) y profesora catedrática de los Estudios de Ciencias de la Información y de la Comunicación, ha explicado que “hemos aplicado un método típico de la sociología tradicional: la entrevista. Como los chatbots nos dan conversación con un lenguaje natural, hemos hablado con ellos a partir de un guion que plantea situaciones ficticias y preguntas sobre prácticas digitales”.

Una doble vara

El equipo investigó el funcionamiento de ChatGPT, Jasper, Gemini, Copilot y Perplexity. Interactuaron con ellos manteniendo conversaciones semiestructuradas utilizando un entorno digital esterilizado (cuentas nuevas, navegadores limpios y geolocalización controlada) para evitar sesgos. Las preguntas planteadas pedían a los chatbots que asignaran edad o género a personajes ficticios según sus hábitos digitales, o que explicaran qué funciones eran más útiles para diferentes tipos de usuarios. Los resultados apuntan a la existencia de una doble vara de medir.

Por un lado, los chatbots tienden a ofrecer respuestas “políticamente correctas” en cuanto al género y evitan hacer suposiciones y asignar roles estereotipados a hombres y mujeres. En cambio, no muestran la misma sensibilidad hacia la edad, asignando de manera mucho más evidente perfiles y capacidades en función de si una persona es joven o mayor. Ante una persona que hace un uso intensivo de Instagram o TikTok, no se atreven a suponer género, pero sí la incluyen en una categoría de edad más joven que a alguien que siga debates políticos en Facebook.

Sesgos sociales

Mireia Fernández-Ardèvol considera que los chatbots son más cuidadosos con el género que con la edad porque la sociedad lo es más con el sexismo que con el edadismo. “Las personas que diseñan, programan y entrenan la IA generativa tienen interiorizado que el sexismo es incorrecto, pero no tanto que el edadismo lo sea”, apunta la investigadora del CNSC, adscrito al centro de investigación UOC-TRÀNSIC.

Los propios modelos de IA, que a menudo incluyen advertencias sobre caer en los estereotipos, al mismo tiempo describen sus funciones de forma desigual en función de la edad: para personas mayores destacan tareas de asistencia, simplificación y ayuda en la vida cotidiana, mientras que para personas jóvenes se insiste en la creatividad, el aprendizaje y el entretenimiento.

Ya que estos sesgos reflejan valores y estereotipos presentes en la sociedad y en los datos de entrenamiento, los investigadores consideran que esta situación puede contribuir a reforzar estas desigualdades y generar una representación sesgada de determinados colectivos. “Existe un riesgo de legitimar estas discriminaciones, invisibilizar la diversidad y limitar oportunidades en ámbitos como el trabajo, la salud o el acceso a servicios, particularmente si son servicios digitales”.

Proyecto #Viejismo

Los resultados de esta investigación refuerzan la idea de que es necesario incorporar una mayor sensibilidad hacia el edadismo en el desarrollo de la IA y promover enfoques más inclusivos para evitar la reproducción de discriminaciones sociales. En esta línea ha estado trabajando el proyecto de investigación de la UOC Digital ageism: Ageist stereotypes and the vicious circle of digital exclusion in Spain (#Viejismo). El programa, financiado por el Observatorio Social de la Fundación ”la Caixa”, pretende combatir la desigualdad digital que afronta la gente mayor en España identificando los elementos críticos y los estereotipos más interiorizados por parte de la población que fomentan el edadismo digital. El proyecto, impulsado por Mireia Fernández-Ardèvol con la colaboración de Sara Suárez y Marta Cambronero, también investigadoras del grupo CNSC de la UOC, destaca que la población adulta tiende a estar de acuerdo con los estereotipos sobre las capacidades digitales de las personas mayores.