Crean una red social formada solo por bots de IA y su resultado sorprende
Un experimento muestra que los conflictos que se generan en estas plataformas no se deben tanto a la presencia de usuarios irresponsables sino a la propia estructura del sistema
¿Te imaginas qué pasaría si existiera unared socialen la que no hubiera ni un solo ser humano? Pues bien, un grupo deinvestigadores de la Universidad de Ámsterdam (Países Bajos) decidió ponerse manos a la obra para averiguarlo.
Relacionadas
Los científicos llevaron a cabo un experimento insólito y para ello crearon una plataforma digital en la que todos sus integrantes eran chatbots de inteligencia artificial (IA) basados en modelos GPT-4o, entrenados para publicar, interactuar y reaccionar como si fueran personas reales.
El objetivo de los expertos era comprobar si en un entorno libre de humanos, las plataformas digitales podían librarse de sus principales males: la polarización, la desinformación y el discurso de odio. Sin embargo, el resultado fue sorprendente.
La aplaudida reflexión de Gabriela Uriarte contra las redes sociales
Bots con personalidad propia
Los investigadores crearon una plataforma mínima, sin anuncios, sin algoritmos de recomendaciones ni métricas de popularidad visibles; un feed en el que los bots podían publicar, seguir a otros y compartir mensajes. Eran alrededor de 500 integrantes, cada uno con una identidad diferente inspirada en datos demográficos y políticos reales como edad, género, ideología, religión o nivel educativo.
En teoría, dicho entorno artificial estaba libre de todos esos elementos que habitualmente alimentan la polémica y la radicalización en las redes sociales: sin me gusta, ni cuentas infladas con millones de seguidores, ni algoritmos que premian lo más viral.
Bots 'influencers'
A pesar de ese entorno controlado, los bots empezaron a agruparse en comunidades cerradas con otros que pensaban parecido. Las publicaciones con una mayor carga ideológica o partidista fueron las que atrajeron un mayor número de seguidores y se compartieron con más frecuencia. En pocas semanas, unos pocos bots influencers dominaban la conversación, concentrando la atención de los demás y marginando al resto.
Cualquier intento de reducir la polarización resultaba inútil. Un feed cronológico redujo desigualdades de visibilidad, pero situó los mensajes más extremos en lo más alto de la pantalla, amplificando su alcance. Ocultar información de los perfiles tampoco ayudó, sino que aumentó las divisiones. Al intentar amplificar puntos de vista contrarios, lo único que se consiguió fue dar más visibilidad a los contenidos más polarizantes.
ChatGPT: un chatbot con diferentes personalidades según el idioma y el país
Toxicidad
La conclusión fue clara: la toxicidad de las redes sociales no depende solo de las personas que participan en ellas, sino también de la propia arquitectura de las redes sociales.
Como explicó el investigador Petter Törnberg, estas redes se construyen para maximizar la interacción y retener la atención. Esto convierte a la polémica, al contenido extremo y a la emocionalidad en los grandes motores de visibilidad. De esta forma, mientras la lógica dominante de las redes sociales sea captar la atención a cualquier precio, los resultados serán los mismos: desigualdad, radicalización y un puñado de voces dominando sobre el resto.
La inteligencia artificial es manipulable y los usuarios de Grok, la IA de X (antes Twitter), lo saben
Futuro digital
El experimento demostró que la inteligencia artificial no es una varita mágica capaz de limpiar el ambiente digital, sino un altavoz que multiplica la toxicidad. Su facilidad para generar mensajes convincentes en masa hace que la desinformación y los discursos polarizantes puedan propagarse aún más rápido.
Visto así, los problemas en las redes sociales no se deben solo a usuarios irresponsables, que también los hay, sino que la propia arquitectura de las plataformas genera desigualdades y fomenta lo extremo. Si los bots replican lo peor de la conversación digital es porque las propias reglas del sistema lo favorecen.
Por ello, será necesario replantearse qué plataformas se construyen de aquí en adelante y con qué valores, ya que con este estudio ha quedado demostrado que, incluso una sociedad artificial formada solo por bots, terminó comportándose igual que aquellas formadas por humanos.
Temas
Más en Berm@tu
-
Demandan a ChatGPT por presuntamente ayudar a un menor a suicidarse
-
Vuelve el timo de la matrícula universitaria, ojo si te piden una transferencia bancaria inesperada
-
Un 'terapeuta' de bolsillo: cómo los jóvenes de Taiwán usan la IA para su salud mental
-
Otro ataque de phishing: GLS no ha enviado emails con avisos de paquetes pendientes de entrega