Síguenos en redes sociales:

This browser does not support the video element.

Desconozco que desconozco

Voces clonadas en segundos, así nos pueden engañar con los audios hechos con IA

Esta semana, en el videoblog de Juan de la Herrán, ponemos el foco sobre los audios que parecen reales pero que no lo son

Tan fácil como un par de clics y puedes escuchar a quien desees diciendo lo que quieras... Esta semana el videoblog de Juan de la Herrán nos alerta de lo sencillo que resulta clonar voces gracias a herramientas de inteligencia artificial. A lo largo del vídeo, muestra ejemplos reales que le han llegado por whatsapp. También explica el proceso para clonar una voz (con herramientas gratuitas) pero sobre todo, lanza un mensaje de prudencia. Es importante saber que los audios manipulados circulan por redes y aplicaciones, por lo que si no sabemos de dónde provienen y no estamos seguros, no deberíamos compartirlo con nadie, para evitar extender un posible bulo.

Para demostrar lo sencillo que resulta crear audios falsos con voces familiares o famosas, de la Herrán nos muestra el proceso paso a paso, con una aplicación gratuita como Mango AI; en apenas 40 segundos consigue clonar una voz muy reconocida por todos y hacerle decir frases totalmente inventadas.

El resumen es claro: aunque estas imitaciones pueden resultar divertidas para bromas o experimentos personales, existe el riesgo de propagar fake news o generar más ambiente de desinformación. En un momento en el que los audios falsos se propagan con rapidez por WhatsApp y otras plataformas, advierte: “Cuando te llegue un audio tan sorprendente, si no puedes verificar la fuente, no lo compartas”.

Últimos vídeos