La inteligencia artificial (IA) está cada vez más omnipresente en múltiples actividades del ser humano. En el último año, desde que se popularizara gracias al icónico ChatGPT, han salido como setas herramientas que permiten la automatización de procesos y la creación de imágenes, textos, diálogos, y otras complejas funciones hasta ahora vetadas a las máquinas. Pero esta herramienta y la lucha por el poder Open IA, la empresa que lo descubrió ha puesto de manifiesto lo rápido que las máquinas aprenden con autonomía y alta capacidad de generar e innovar. Casi como la mente humana y con un lenguaje idéntico.

Y con ello se han puesto de manifiesto los riesgos y vulnerabilidades para la sociedad, principalmente relacionadas con su ética deontológica, con su falta de regulación, y con el respeto a privacidad en sus utilidades. Porque ya estamos viendo usos malintencionados (noticias falsas, perfiles falsos en redes sociales, imágenes trucadas con fines pornográficos o delictivos, etc.) y el peligro de que sea empleado para engañar y manipular a numerosos y masivos grupos sociales al proporcionar información falsa o incompleta. Las altas capacidades de generalizar, aprender y comprender autónomamente de una inteligencia cada vez menos artificial pueden ser una bendición para el futuro más inmediato, pero también un riesgo de control, unificación y manipulación en manos de unos pocos que es preciso regular cuanto antes.