Hace unos años, en el mundo digital saltaron las alarmas. Centenares de científicos expertos en tecnología e Inteligencia Artificial firmaron un manifiesto contra las armas autónomas que definieron como “la tercera revolución en la historia de la guerra, después de la pólvora y las armas nucleares”.

Las nuevas guerras se han desplazado a un nuevo campo de batalla: la automatización. Las armas letales autónomas o LAWS (por sus siglas en inglés, Lethal Autonomous Weapons) consisten en máquinas de matar capaces de operar por sí solas sin ninguna intervención humana.

Aunque puede sonar a ciencia ficción, países como Rusia, China, Estados Unidos, Israel, Corea del Sur y Reino Unido han empezado a desarrollar “robots asesinos” en forma de tanques, barcos, aviones de combate, submarinos y otras armas capaces de rastrear, identificar y atacar objetivos sin necesidad de un controlador humano.

El uso de la tecnología para la guerra ha originado un polémico debate a nivel internacional que cuestiona los fundamentos del derecho y de la ética. En la actualidad, no existe ninguna legislación al respecto, aunque Reino Unido y Estados Unidos han puesto de manifiesto la necesidad de una supervisión o juicio humano en las operaciones que comporten letalidad. Las Naciones Unidas trabajan para regular este nuevo escenario y garantizar que el futuro digital sea seguro para todos.

Parece inevitable que los sistemas de armas autónomos letales se construyan por lo que es necesario establecer un consenso en las limitaciones de su uso y frenar a este nuevo Terminator que amenaza nuestra paz y seguridad. Stephen Hawking dijo una vez que “el desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana”. Y no le faltaba razón.