Este sábado 2 de agosto entrarán en vigor las normas de la Unión Europea para los modelos de inteligencia artificial generativa, que obligan a los grandes sistemas como ChatGPT, de OpenAI, o Gemini, de Google, a respetar los contenidos protegidos por derechos de autor y a no proporcionar información discriminatoria ni contraria a los derechos fundamentales.
Las obligaciones forman parte de la ley de inteligencia artificial de la UE, que entró en vigor el año pasado y se irá desplegando de forma progresiva hasta 2027.
La ley, pionera en el mundo, permite o prohíbe el uso de la tecnología en función del riesgo que genere para las personas y hace dos semanas la Comisión Europea publicó las directrices que deberán seguir los sistemas de inteligencia artificial generativa para cumplir con la norma.
Un código de conducta voluntario que Meta ya ha dicho que no va a firmar y que xAI, la empresa del magnate Elon Musk, solo hará en parte, en un contexto en el que Estados Unidos está presionando a la UE por las recientes leyes que han entrado en vigor para controlar el poder de las grandes tecnológicas, en su mayoría estadounidenses.
No solo la ley de inteligencia artificial, sino también la de mercados digitales –que establece las pautas de la libre competencia entre las tecnológicas– y la de servicios digitales –que les obliga a combatir el contenido ilegal–.
"Si sólo quieren firmar un capítulo del código de conducta (el de seguridad) está muy bien", dijo ayer el portavoz de Soberanía Tecnológica de la Comisión Europea, Thomas Regnier, recordando que el documento es de carácter voluntario.
"Evidentemente, preferiríamos que firmaran los otros dos capítulos (los de derechos de autor y transparencia). Respecto a los otros dos capítulos, tendrán que demostrar por medios alternativos que cumplen" la normativa, "porque lo que no es una posibilidad es cumplir la ley de inteligencia artificial", puntualizó Regnier.
Propiedad intelectual y derechos humanos
Bruselas pide a los sistemas de inteligencia artificial generativa, principalmente a los considerados de alto riesgo por su elevada capacidad de cálculo, que no los entrenen con datos protegidos por derechos de autor y a que evalúen el peligro que pueden provocar a los usuarios.
En concreto, que analicen hasta qué punto pueden fomentar violaciones de los derechos humanos y si existen otros peligros como la posibilidad de que las personas pierdan el control o haya accidentes químicos, biológicos y nucleares.
Cualquier actualización de los modelos de inteligencia artificial que a partir de mañana se lance al mercado deberá respetar la normativa y, en caso de incumplimiento, Bruselas podrá abrir expedientes a las empresas a partir del 2 de agosto de 2026.
Aunque la fecha se aplaza un año para todas las versiones de los chats que ya se estén comercializando y la vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, Henna Virkkunen, ha abierto la puerta a retrasar la aplicación de la ley.
Cuarenta organizaciones europeas e internacionales de artistas, editores y poseedores de derechos de autor han mostrado esta semana su "insatisfacción" con el código de conducta porque lo consideran "una oportunidad perdida para brindar una protección significativa de los derechos de propiedad intelectual".