Síguenos en redes sociales:

Grokipedia o Wikipedia: ¿Puede una enciclopedia de IA ser tan fiable como la humana?

La enciclopedia auspiciada por Elon Musk aprovechando la potencia de la IA es para muchos un esfuerzo para combatir lo que el magnate considera cultura ‘wooke’

Grokipedia o Wikipedia: ¿Puede una enciclopedia de IA ser tan fiable como la humana?Imagen generada por IA

Grokipedia, la enciclopedia digital escrita y/o verificada por inteligencia artificial (IA) ya está aquí. El pasado 27 de octubre, el magnate de la tecnología Elon Musk presentaba al mundo su último proyecto, una enciclopedia online de conocimiento universal que ofrece a sus usuarios “la verdad, toda la verdad y nada más que la verdad”, según las propias palabras del sudafricano dueño de la red social X.

En el momento de su presentación ofrecía a los usuarios de todo el mundo 885.279 artículos y únicamente en lengua inglesa. Como su nombre indica, el motor que genera y verifica los artículos es Grok, el chatbot de IA de X. Tras la compra de Twitter por Musk y el posterior cambio de nombre, esta red social ha sufrido una fuerte escora hacia los planteamientos políticos de su nuevo propietario, alineado con las tesis más reaccionarias del espectro político de EEUU.

Pagina de inicio de Grokipedia.

Contra Wikipedia

De un proyecto que nace directamente contra algo, atacando a su competencia, cabe pensar que quizá le encontremos un sesgo determinado. Y aunque Elon Musk lo anuncie como un proyecto que busca reorganizar el conocimiento humano con la ayuda de la inteligencia artificial, también ha dicho que es una alternativa “más fiable y menos sesgada” a Wikipedia, a la que se ha referido como wokepedia y de la que asegura que “está controlada por activistas de extrema izquierda”.

Así, la idea con Grokipedia es sustituir los autores y controladores de contenidos humanos por Grok, una IA generativa que se nutre y entrena con artículos de terceros para escribir las entradas de la nueva enciclopedia online.

Wikipedia ha sido desde su aparición en 2001 un ejemplo de conocimiento compartido, de comunidad de autores que escriben los artículos y revisan, corrigen o completan los de otros. Esta edición compartida, y que enlaza las fuentes, ha hecho que cuente en la actualidad con 63 millones de entradas en 334 idiomas, de las cuales siete millones están en inglés.

Se da la paradoja de que parte de los artículos que ofrece a sus usuarios Grokipedia se basan directamente en los de Wikipedia. Así lo han denunciado usuarios y analistas tecnológicos, que han comparado algunas entradas, como las referidas, por ejemplo, al ordenador MacBook Air, la consola PlayStation 5 o el automóvil Lincoln Mark VIII. En algunos casos no cita a Wikipedia como fuente y en otros afirma que es una adaptación bajo una licenciaCreative Commons.

Ante esto, Lauren Dickinson, portavoz de la Fundación Wikimedia, ha comentado con cierta sorna que “incluso Grokipedia necesita que Wikipedia exista”.

La verificación

Es claro y conocido que las IA generativas, a pesar de su relativa precisión, suelen sufrir lo que los expertos llaman alucinaciones, fallos en su información debido a errores en los datos con los que trabajan, sesgos conscientes o inconscientes en su entrenamiento o fallos en el procesamiento de la información. Este es el principal motivo por el que conviene repasar las respuestas y las fuentes con las que ha trabajado.

Los chatbots generativos, los modelos de lenguaje, no hay que considerarlos como verificadores fiables, ya que, en realidad, no saben de qué hablan dado que su labor es ir construyendo frases en función de la probabilidad de que una palabra siga a otra.

Además, en el caso de Grok, se han descubierto notables fallos a la hora de elaborar o verificar informaciones, como fueron los casos comentados por Maldita.es, web especializada en el fact-checking, sobre una fotografía de una familia malagueña de los años 50 que Grok ubicó en EEUU durante la Gran Depresión o la biografía de uno de los fundadores de Wikipedia, Larry Sanger.

Sospecha de sesgo

Además, en el caso de Grok, la IA de X, parte de los entrenamientos se realiza con los textos y mensajes de los usuarios de una red social en la que su propietario, en nombre de la libertad de expresión, eliminó los moderadores y consiguió –misterios del algoritmo– radicalizarlo hacia posturas muy reaccionarias.

A esto puede unirse un algoritmo que favorezca la perspectiva que tiene del mundo Elon Musk. A este respecto, usuarios y diversos medios han denunciado el contenido de algunos artículos que se alinean directamente con los planteamientos políticos del propietario, como los referidos a la esclavitud, el cambio climático, la invasión de Ucrania por Rusia o Donald Trump.

Así, la apariencia de legitimidad que da el decir que la información ha sido examinada por una autoridad aparentemente aséptica como una inteligencia artificial, en este caso Grok, puede hacer que el usuario crea encontrarse con una información neutral que en realidad llega después de un proceso opaco y que lleva a una visión concreta de la realidad sin opción a réplica.