IA i Deepfakes: un duet perillós a les mans equivocades
Compartir
El creixement emergent de la Intel·ligència Artificial ha permès transformar sectors clau com la medicina, l'economia, el sector energètic o el transport. Al panorama actual, la Intel·ligència Artificial té un potencial immens per construir una societat millor. No obstant això, la IA és una eina de doble tall tan poderosa que pot ser explotada per desenvolupar solucions que tanquin fins negatius o maliciosos.
En el pla de la ciberseguretat, la Intel·ligència Artificial ha permès l'evolució i la millora de tècniques d'enginyeria social, facilitant l'execució de campanyes de ciberatacs més eficaces i difícils de detectar.
En aquest context, s'han desenvolupat nous fraus impulsats per la IA, especialment pel que fa a la creació de deepfakes.
Què és el deepfake?
El terme deepfake és de la combinació del terme Deep Learning i fake. Així, aquest terme fa referència a la tècnica per la qual, emprant algoritmes d'Intel·ligència Artificial complexos com és el Deep Learning, es manipulen continguts de caràcter audiovisual i el donen d'un efecte altament realista. Aquesta característica implica que, sota la percepció convencional d'un humà, és molt complicat determinar si el contingut audiovisual que s'està consumint és veritat o fal·laç.
En aquest context, la tecnologia deepfake per a la suplantació d'identitat s'ha aconseguit expandir a totes les plataformes digitals ia l'àmbit de la comunicació personal, la indústria cinematogràfica, així com el sector corporatiu i governamental. Si bé obre oportunitats per a la creativitat i la innovació en la producció de contingut digital, també presenta riscos considerables per a la privadesa i la seguretat.
Encara que deepface i deepvoice no són termes àmpliament reconeguts dins del deepfake, podem explicar-los de manera separada per entendre les aplicacions dins del món de la ciberseguretat:
- Deepfaces: Consisteixen a crear imatges amb un alt nivell de realisme des de zero, però sent completament fictícies.
- Deepvoices: Aquesta tecnologia permet generar veus humanes sintètiques que sonen molt naturals a partir de text escrit. A més de generar una veu de zero, és possible falsificar la veu duna persona real entrenant la IA amb mostres de la veu real. Amb uns minuts d'àudio de la veu d'una persona, qualsevol usuari podria clonar la veu i comprometre'n la seguretat i la privadesa.
Casos reals de deepfake i atacs de IA
Alguns casos coneguts de deepfake o alteració i creació falsa d'imatges, àudios i vídeos són els següents:
- Deepfake de Vladimir Putin i Donald Trump: El 2019, un vídeo deepfake que representava Vladimir Putin i Donald Trump va ser compartit en xarxes, on tots dos líders polítics semblaven discutir temes seriosos com el control d'armes i la política internacional. Aquest tipus de contingut subratlla com els deepfakes podrien ser utilitzats per desinformar i manipular opinions públiques.
- Deepfake d'actors en pel·lícules pornogràfiques: Un dels usos més controvertits dels deepfakes ha estat la creació de vídeos pornogràfics falsos que mostren celebritats i persones públiques en escenes comprometedores, com va ser el cas d'Emma Watson, Rosalía o Taylor Swift. Aquest tipus de contingut ha provocat preocupacions legals i ètiques sobre la privadesa i el consentiment.
- Deepfake de Barack Obama: El 2018, un vídeo deepfake de l'expresident dels Estats Units, Barack Obama, va ser creat per l'empresa Jordan Peele's Monkeypaw Productions. Al vídeo, Obama sembla estar fent declaracions inusuals i advertint sobre els perills dels deepfakes, cosa que es va fer per conscienciar sobre aquesta tecnologia i els seus possibles usos maliciosos. El vídeo està disponible a youtube al següent enllaç .
- Un dels casos destacats de suplantació de veu és la del CEO d'una empresa britànica energètica el març del 2019. En aquest incident, els estafadors van utilitzar intel·ligència artificial per imitar la veu del CEO. Aquest alt directiu va rebre una trucada telefònica del seu suposat cap en què se li indicava que fes una transferència de 220.000€ a un compte bancari extern. El CEO va fer la transferència sense verificar la identitat del seu cap, atesa la credibilitat d'una trucada telefònica amb una veu tan realista.