IA y Deepfakes: un dúo peligroso en las manos equivocadas
Compartir
El emergente crecimiento de la Inteligencia Artificial ha permitido transformar sectores clave como la medicina, la economía, el sector energético o el transporte. En el panorama actual, la Inteligencia Artificial tiene un potencial inmenso para construir una sociedad mejor. Sin embargo, la IA es una herramienta de doble filo tan poderosa que puede ser explotada para desarrollar soluciones que encierren fines negativos o maliciosos.
En el plano de la ciberseguridad, la Inteligencia Artificial ha permitido la evolución y mejora de técnicas de ingeniería social, facilitando la ejecución de campañas de ciberataques más eficaces y difíciles de detectar.
En este contexto, se ha visto desarrollados nuevos fraudes impulsados por la IA, especialmente en lo que conlleva a la creación de deepfakes.
¿Qué es el deepfake?
El término deepfake resulta de la combinación del término Deep Learning y fake. Así, este término hacer referencia a la técnica por la cual, empleando algoritmos de Inteligencia Artificial complejos como es el Deep Learning, se manipulan contenidos de carácter audiovisual datándolo de un efecto altamente realista. Esta característica implica que, bajo la percepción convencional de un humano, es muy complicado determinar si el contenido audiovisual que se está consumiendo es verdad o falaz.
En este contexto, la tecnología deepfake para la suplantación de identidad ha conseguido expandirse a todas las plataformas digitales y al ámbito de la comunicación personal, la industria cinematográfica, así como al sector corporativo y gubernamental. Si bien abre oportunidades para la creatividad y la innovación en la producción de contenido digital, también presenta riesgos considerables para la privacidad y la seguridad.
Aunque deepface y deepvoice no son términos ampliamente reconocidos dentro del deepfake, podemos explicarlos de forma separada para entender las aplicaciones dentro del mundo de la ciberseguridad:
- Deepfaces: Consisten en crear imágenes con un alto nivel de realismo desde cero, pero siendo completamente ficticias.
- Deepvoices: Esta tecnología permite generar voces humanas sintéticas que suenan muy naturales a partir de texto escrito. Además de generar una voz de cero, es posible falsificar la voz de una persona real entrenando a la IA con muestras de la voz real. Con unos minutos de audio de la voz de una persona, cualquier usuario podría clonar su voz y comprometer su seguridad y privacidad.
Casos reales de deepfake y ataques de IA
Algunos casos conocidos de deepfake o alteración y creación falsa de imágenes, audios y videos son los siguientes:
- Deepfake de Vladimir Putin y Donald Trump: En 2019, un video deepfake que representaba a Vladimir Putin y Donald Trump fue compartido en redes, donde ambos líderes políticos parecían discutir temas serios como el control de armas y la política internacional. Este tipo de contenido subraya cómo los deepfakes podrían ser utilizados para desinformar y manipular opiniones públicas.
- Deepfake de actores en películas pornográficas: Uno de los usos más controvertidos de los deepfakes ha sido la creación de videos pornográficos falsos que muestran a celebridades y personas públicas en escenas comprometedoras, como fue el caso de Emma Watson, Rosalía o Taylor Swift. Este tipo de contenido ha provocado preocupaciones legales y éticas sobre la privacidad y el consentimiento.
- Deepfake de Barack Obama: En 2018, un video deepfake del expresidente de Estados Unidos, Barack Obama, fue creado por la empresa Jordan Peele's Monkeypaw Productions. En el video, Obama parece estar haciendo declaraciones inusuales y advirtiendo sobre los peligros de los deepfakes, lo que se hizo para concienciar sobre esta tecnología y sus posibles usos maliciosos. El vídeo está disponible en youtube en el siguiente enlace.
- Uno de los casos destacados de suplantación de voz es la del CEO de una empresa británica energética en marzo de 2019. En este incidente, los estafadores utilizaron inteligencia artificial para imitar la voz del CEO. Este alto directivo recibió una llamada telefónica de su supuesto jefe en la que se le indicaba que realizara una transferencia de 220.000€ a una cuenta bancaria externa. El CEO realizó la transferencia sin verificar la identidad de su jefe, dada la credibilidad de una llamada telefónica con una voz tan realista.