¿La IA sirve para detectar imágenes con IA?
Expertos analizan si las nuevas herramientas de verificación son fiables y eficaces
Internet está inundado de fotos, vídeos y memes, muchos de ellos difícilmente distinguibles de la realidad, y para tratar de contrarrestar esa avalancha han irrumpido también en el tsunami digital numerosas herramientas y aplicaciones que permiten detectar, aparentemente con un alto grado de fiabilidad, las imágenes que han sido creadas con inteligencia artificial (IA).
Relacionadas
Los gobiernos, numerosas empresas tecnológicas y centros de investigación han intensificado los esfuerzos para desarrollar sistemas capaces de distinguir una imagen real de una sintética; y varios expertos analizan con Efe si son fiables y eficaces y si tienen futuro en sociedades (como la nuestra) donde la cultura de la seguridad está muy poco arraigada y los usuarios podrían no ser muy propensos a ‘perder’ (o ganar) tiempo comprobando la veracidad de las imágenes que reciben.
Fraudes millonarios
Los fraudes provocados por contenidos generados o modificados con IA provocaron el pasado año, según revelan diferentes informes, pérdidas que superaron los 1.500 millones de dólares; se usan imágenes falsas de facturas o documentos para reclamar gastos corporativos o validar operaciones; se presentan fotos de daños que en realidad nunca existieron (coches, electrodomésticos, ropa o comida en mal estado); se difunden en medios y redes imágenes de sucesos o situaciones que nunca ocurrieron; y hasta se clona la voz de un superior para ordenar transferencias millonarias.
Así puedes protegerte para que las imágenes, reales o con IA, no te dañen
Numerosas herramientas (IMGDetector.ai; RealReveal; Tenorshare Deepfake Detection; AI or Not; o Vericta) están ya disponibles (algunas de forma gratuita) y son capaces de detectar imágenes generadas por inteligencia artificial y fotos manipuladas, de analizar inconsistencias o deformaciones, o de comprobar los desajustes en los píxeles o las huellas digitales que dejan los sistemas que se utilizan para generar esas imágenes falsas.
¿Más que 1.000 palabras?
¿Sigue valiendo una imagen más que mil palabras? Georgina Viaplana, cofundadora y directora de la empresa Vericta, mantiene que sí, que no ha cambiado su valor, pero sí la capacidad de las personas de darlas por ciertas sin cuestionarlas; “y precisamente porque una imagen tiene tanto poder merece la pena manipularla”.
Vericta, que ha sido germinada por una empresa española especializada en automatizar el cumplimiento de normativas digitales para empresas con el respaldo de varias administraciones y organismos públicos, ha desarrollado su propia tecnología para saber en segundos si una imagen o un vídeo es real o ha sido generado por IA.
Las nuevas funciones que ChatGPT puede hacer ya con las imágenes
Viaplana se muestra convencida del futuro de este tipo de herramientas y de que se van a convertir en “imprescindibles”, ya que la confianza en la autenticidad de los contenidos digitales se ha convertido para las empresas “en una necesidad estructural, no en algo accesorio” y precisa que cuando una imagen puede suponer un coste directo, la verificación no se percibe como una pérdida de tiempo.
Y cita ejemplos como los seguros, el comercio electrónico, el reparto a domicilio o el sector inmobiliario, donde la comprobación de imágenes puede resultar clave.
‘Carrera armamentística digital’
Etiquetar en origen cualquier imagen creada con inteligencia artificial podría ser una solución, pero solo a nivel teórico, porque las marcas de agua se pueden modificar, los metadatos se pueden cambiar y no todos los modelos están sujetos a los mismos estándares, por lo que deberían convivir con sistemas independientes de verificación.
Ocho herramientas gratuitas para detectar contenido generado por IA
El responsable de Operaciones Globales de Consumo de Panda Security, Hervé Lambert, mantiene que estas herramientas tienen futuro pero no serán infalibles: “Es una carrera armamentística digital: cada mejora en detección provoca una mejora en generación”, aunque valora su utilidad en medios de comunicación, tribunales o fuerzas de seguridad.
Lambert duda de su eficacia entre los usuarios ‘medios’ y en sociedades donde la cultura de la ciberseguridad no está madura. “La mayoría de las personas no contrasta ni una noticia, menos aún una imagen que encaja con su narrativa”, señala, antes de defender regulación, responsabilidad de las plataformas y alfabetización digital, sin olvidar el pensamiento crítico, porque en ciberseguridad “nunca hay una única bala de plata".