El hecho de que cada vez más decisiones públicas se tomen mediante procedimientos algorítmicos nos obliga a renegociar el espacio híbrido de acción en el que nos desenvolvemos los seres humanos y los artefactos tecnológicos. El espacio cotidiano de acción que antes solo se compartía con otros seres humanos, debe ser cada vez más compartido con dispositivos técnicos.

No habrá verdadera democracia si no introducimos a estos artefactos en un ámbito que nos permita contestar sus decisiones. Las posibilidades de contestación pueden adquirir diversas formas (monitorización, evaluación, supervisión, crítica, rendición de cuentas...) y llevarse a cabo en diferentes momentos (en los datos, los algoritmos, los resultados, la regulación...). En cualquier caso, se trata de modos y momentos en los que nosotros, los humanos, nos hacemos valer como quien tiene una capacidad de proporcionar o no legitimidad al sistema sociotécnico.

La primera posibilidad de contestación está en el ámbito de los datos. Durante los últimos años se ha desarrollado una suerte de activismo político en torno a las estadísticas. En la medida en que clasifican, procesan y realizan predicciones a partir de los datos, los algoritmos son políticos porque hacen que el mundo aparezca de un modo y no de otro. Muchos grupos se han dado cuenta de que las estructuras sociales están condicionadas por la decisión en favor de ciertos indicadores y criterios de valoración, incluidos los procedimientos automatizados. Se han constituido movimientos como la ONG Algorithm Watch que exigen transparencia y derecho a la crítica, especialmente por parte de quienes son clasificados de ese modo.

Otra forma de contestación es la exigencia de trasparencia. Las diversas reivindicaciones de publicidad tienen como efecto un empoderamiento de la gente respecto de la tecnología. Una vez que se hace pública la computación, los usuarios de alguna manera la domestican utilizándola de diversas maneras, subvirtiéndola incluso o reelaborándola (pensemos en el intento de los usuarios de gamificar el Google’s PageRank Algorithm). En este sentido, los algoritmos no son lo que crean los programadores sino también lo que los usuarios hacen de ellos cada día. El algoritmo configura el modo como se comportan los usuarios, pero al mismo tiempo lo que el algoritmo hace está condicionado por el input que recibe de los usuarios. La gente no solo obedece, sino que resiste, subvierte y transgrede el trabajo de los algoritmos, lo re-desarrolla para objetivos que no coinciden con aquellos para los que fue diseñado.

La potencialidad de contestación de la trasparencia depende de cómo la concibamos. Una transparencia entendida como justificación de las decisiones tiene la capacidad de asegurar más legitimidad en el público que la transparencia del proceso. El derecho a la explicación no tiene por qué ser una autopsia de los sistemas, sino que funciona más bien como un principio de autocontrol. Entendido así, este principio es compatible con la complejidad del sistema y reduce un poco la asimetría cognitiva entre diseñadores y afectados. La cuestión no es si entendemos el funcionamiento del algoritmo sino si se nos han suministrado las claves para valorar la justificación de las decisiones que se siguen de su utilización. Este tipo de publicidad debería servir para capacitar al público de manera que pueda debatir las decisiones e incluso exigir su revisión.

Aunque, debido a la complejidad de los sistemas, el examen de la caja negra no pueda ser realizado en cada decisión concreta, sí que pueden revelarse los criterios generales tenidos en cuenta y de este modo estaremos en condiciones de diagnosticar su falta de calidad o las discriminaciones implícitas, de manera que esta valoración motive intervenciones para corregir el programa. Los algoritmos son entrenados para navegar en un conjunto masivos de datos haciendo uso de determinados conceptos o variables clave predefinidos, como “solvencia crediticia” o “individuo de alto riesgo”. El algoritmo no define estos conceptos por sí mismo; los seres humanos –desarrolladores y científicos de datos– eligen a qué conceptos recurrir, al menos como punto de partida inicial. Son las decisiones previas en torno a estas categorías las que tienen que ser revisables por la ciudadanía. Seguramente no se pueden aplicar a las decisiones algorítmicas los mismos criterios que valen para las decisiones humanas, pero sí que cabe situarlas en el espacio deliberativo en el que se sopesan decisiones y argumentos.

Las ideas de transparencia y comprensión tienen todavía unas connotaciones de pasividad y no terminan de dejar un espacio para la intervención expresa de los afectados por las decisiones. El contenido de la explicación debe estar orientado no solo a la inteligibilidad de los usuarios sino a posibilitar su intervención. El valor de la regulación de la transparencia de la inteligencia artificial consiste en generar conocimiento y suscitar el debate sobre la tecnología, motivar a los individuos a impugnar las decisiones basadas en ella y –a la larga– reforzar la aceptación social de la nueva tecnología. Como ocurre en la democracia en general, al contestar las decisiones algorítmicas, nosotros los que contestamos no arruinamos la tecnología, sino que contribuimos a aumentar su legitimidad.

El autor es catedrático de Filosofía Política, investigador Ikerbasque en la Universidad del País Vasco y titular de la Cátedra Inteligencia Artificial y Democracia del Instituto Europeo de Florencia. Autor de ‘Una teoría crítica de la inteligencia artificial’ (Galaxia-Gutenberg), Premio Eugenio Trías de Ensayo