Durante años sospechamos del tabaco antes de que la evidencia fuese irrefutable. Hoy ocurre algo inquietantemente parecido con los algoritmos. Ya no es prejuicio: investigaciones sólidas y sentencias judiciales muestran que muchas plataformas están diseñadas para retenernos, seducirnos y, en el caso de los menores, engancharlos. No es un fallo: es su función. Estos sistemas tienden a comportarse como sicofantes –aduladores que nos dan la razón– porque así garantizan nuestra atención. Y cuando un humano revisa decisiones algorítmicas, en justicia o evaluación de riesgos, tiende a validarlas más de lo debido. Delegamos el criterio experto sin darnos cuenta, maravillados por la potencia de las máquinas. El problema se agrava por la opacidad. No todos los contenidos compiten en igualdad: hay sesgos ideológicos, incentivos comerciales y agendas que se cuelan en lo que vemos, leemos y creemos. Incluso empezamos a aceptar que estas herramientas puedan aconsejarnos emocionalmente.
Y todo ello sostenido por una infraestructura material nada inocente: centros de datos que consumen enormes cantidades de energía y agua. La nube no es etérea; es una industria con una huella ambiental desmesurada. Mientras tanto, avanzamos hacia sistemas cada vez más autónomos. Algunos estudios apuntan a su influencia en decisiones complejas que tocan los derechos humanos, incluso geopolíticas como los ataques a Irán, donde una predicción errónea causa miles de muertes. Sus alucinaciones ya no son solo un problema técnico: son un riesgo. ¿La solución es renunciar? Lo que pasa es que somos incapaces de cerrar esta caja de Pandora ya abierta. Así que la pregunta es: ¿cómo aprender a desconfiar? Como con el tabaco, el problema no era solo su consumo, sino no entender su coste. Con los algoritmos, empezamos ahora a vislumbrarlo.