Cuando apareció ChatGPT, muchos lo vieron como el gran salto hacia una inteligencia artificial (IA) útil y fiable, apta para cualquier usuario. Una herramienta que venía a mejorar internet, no a repetir sus vicios. Pero apenas unos años después, algunos expertos empiezan a detectar justo lo contrario. Y el término que resume esa preocupación no puede ser más gráfico: mierdificación (enshittification en inglés).

La IA incorpora el clickbait

Diferentes análisis advierten de que asistentes como ChatGPT están empezando a incorporar prácticas propias de internet como el clickbait, es decir, contenidos diseñados para enganchar al usuario más que para informarle, para forzarlo a pinchar aunque luego se sienta decepcionado al ver que el titular era exagerado, manipulado, ambiguo o directamente falso.

No es un fenómeno aislado. Algunos usuarios ya hablan incluso de chatbait, una especie de gancho conversacional que usa el chatbot de OpenAI con frases del tipo “puedo darte un truco más”, “hay opciones aún mejores” o "deberías considerar esta alternativa", que buscan alargar la interacción aunque no sea necesario. Y ese es exactamente el mismo camino que han seguido numerosas plataformas digitales en los últimos años.

Intenta retenerte

¿Por qué lo hacen? Por negocio, porque a más tiempo de uso, más posibilidades de monetización. Mantener sistemas de IA tiene un coste económico muy elevado, lo que empuja a las empresas a buscar fórmulas para retener al usuario y aumentar su actividad.

Y ahí entran en juego estrategias como el clickbait o incluso la publicidad, porque aunque a veces nos lo vendan así nada hay gratis. Ni siquiera las versiones sencillas que no pagan el plus de la opción premium. Por ello algunos expertos alertan de que estos sistemas están diseñados, en parte, para complacer al usuario más que para decir la verdad, lo que puede afectar a la calidad de las respuestas.

A ello se le suman las llamadas alucinaciones de la IA, que son otro grave problema: respuestas que suenan convincentes pero que pueden ser incorrectas o directamente inventadas por los chatbots, algo reconocido ampliamente en el funcionamiento de estos modelos.

La degradación de internet

El concepto no nace con la IA, sino que describe el deterioro progresivo de servicios digitales que empiezan siendo útiles y acaban priorizando el negocio sobre la calidad. Relacionado con esto, también ha surgido otro término: ‘slop’, que se utiliza para describir contenido generado por inteligencia artificial de baja calidad o que busca más la cantidad que el valor.

Aplicado a los chatbots como ChatGPT, el riesgo es evidente: que pasen de ser herramientas precisas a convertirse en generadores de contenido que buscan llamar la atención, aunque eso suponga perder rigor. Y teniendo en cuenta que cada vez más personas utilizan la IA como fuente de información, su impacto social aumenta y aparece otro riesgo: la confianza. Los usuarios tienden a creer lo que dice la IA sin cuestionarlo, lo que puede favorecer la difusión de errores o incluso bulos si no se verifican las respuestas.