“Estamos sobrevalorando la Inteligencia Artificial (IA) e infravalorando la humana”. Este fue uno de los puntos que debatieron ayer los catedráticos Daniel Innerarity, de Filosofía política y social, y Pedro Larrañaga, de Ciencias de la Computación e IA. Ambos pusieron freno a “mensajes apocalípticos” como estos, que hacen creer que la IA es más inteligente de lo que realmente es. En este sentido, Innerarity destacó la “imagen distorsionada” que existe sobre esta tecnología debido a que “hemos dicho tantas veces, en los medios o en películas, que la IA es muy inteligente, de forma que la gente se cree que es más de lo que en realidad es”.

Innerarity recordó que son “dos formas de pensar y decidir radicalmente distintas”. El catedrático explicó que las máquinas deciden muy bien cuando hay muchos datos, las soluciones son binarias y hay un entorno de cierta estabilidad y certidumbre. Los humanos no lo hacemos mal cuando hay pocos datos, ambigüedad e incertidumbre”.

Asimismo, Innerarity aseguró que no vivimos en un contexto de competición entre ambas inteligencias, sino más en “generar un ecosistema de colaboración entre personas y máquinas que nos multiplique”. Y añadió que “en ese ecosistema habrá partes en las que nos va a reemplazar, afortunadamente, en otras nos va a complementar y en otras habrá que tener cuidado de que no nos reemplace”. Innerarity sustituyó esta supuesta competición por un contexto en el que debemos alcanzar la “hibridación, porque ya somos tecnología y no podemos entender nuestra inteligencia sin la tecnología”.

Con esta idea coincidió Larrañaga, quien aseguró que “esto no va a ser más que una herramienta más”. Eso sí, remarcó la necesidad de aprender a utilizarla de manera correcta. “Una de las cosas más importantes es la formación, es decir, conocer qué se puede hacer y qué no con la IA, saber hasta dónde llega esta tecnología”, añadió.

Democracias y máquinas

Uno de los límites que los catedráticos marcaron al poder de la IA fue en la política, como profundizó Innerarity. “Los humanos hacemos política bastante mal, pero de momento no hay nada que la haga mejor que nosotros”. Y se cuestionó: “¿Qué ocurriría si sustituiríamos las votaciones por datos recabados sobre nuestras preferencias?”. El catedrático comparó este contexto con las recomendaciones que hacen plataformas como Netflix, que “adivina y se adelanta a lo que nos va a gustar, así que, ¿por qué no pensar un sistema algorítmico de rastreo que diera lugar a una democracia de las recomendaciones?”.

“Esto no es una buena idea” por dos motivos. En primer lugar por la dificultad para conocer si las preferencias detectadas por el dispositivo son realmente nuestras o han sido creadas por el capitalismo. En segundo lugar, añadió que estas preferencias corresponden al pasado, pensando que “las pasadas van a coincidir con las del futuro”. Aunque aseguró que esto “por lo general es verdad, hay que tener en cuenta que en la vida humana, y sobre todo en la política, hay momentos de ruptura y transformación”. Para ejemplificarlo, recordó esos chistes machistas de los que una vez nos reímos pero de los que en la actualidad nos arrepentimos.