Los deepFakes en la triología ingeniería social, inteligencia artificial y ciberseguridad

Deepfakes in der Trilogie Social Engineering, Künstliche Intelligenz und Cybersicherheit

Die Verbindung zwischen Social Engineering, künstlicher Intelligenz und Cybersicherheit war und bleibt bestehen, im Guten wie im Schlechten. Und eng miteinander verflochten sind die menschliche Schwäche, die menschliche Verletzlichkeit, der menschliche Faktor.
Darum herum gibt es zahlreiche Risiken und Bedrohungen, bei denen alle oder ein Teil dieser Faktoren eingreifen, die in ihrer Kombination, als wäre es ein gefährlicher Molotow-Cocktail, zur Entstehung von Cyber-Vorfällen beitragen, die, obwohl sie unglaublich erscheinen mögen, in den meisten Fällen werden von den angegriffenen Personen bzw. Opfern selbst „unterstützt“, „gesponsert“ und „durchgeführt“.
Ja, Menschen sind einer der Hauptangriffsvektoren. Es reicht aus, dass eine Person eine bestimmte Aktion ausführt, damit ein Cyberangriff erfolgreich ist, egal ob er komplex oder einfach ist. Der Schlüssel liegt in der Täuschung und der Fähigkeit zu überzeugen.
Es stimmt, dass es sehr komplexe, leistungsstarke und robuste Technologien und Mechanismen gibt, die Cyberkriminelle täglich bei ihren Cyberangriffen einsetzen können und auch tun. Aber ohne jeden Zweifel ist in den meisten Fällen der menschliche Faktor entscheidend.
Offensichtlich sprechen wir über Social Engineering und wie man dadurch eine bestimmte „Mitteilung“ oder „Anfrage“ an eine Person senden kann, damit sie möglichst überzeugend ist und der Empfänger so dazu gebracht wird, das zu tun, was er möchte ich zu tun.
Die Fähigkeit, jemanden zu „sensibilisieren“, ihn zu überzeugen, ihn „auf seine Seite“ zu ziehen und ihn zu überzeugen, ist in der Angriffskette von entscheidender Bedeutung. Je vertrauenswürdiger die Kommunikation erscheint, desto größer ist der Erfolg und damit auch die Zielerreichung und Wirkung.
Es ist nicht dasselbe, eine E-Mail von irgendeiner Person an einen beliebigen Empfänger zu schreiben und ihn aufzufordern, etwas zu tun, als dies über eine Identitätsdiebstahl-E-Mail vom Generaldirektor des Unternehmens zu tun (Angriff vom Typ BEC – Business Email Compromise). und/oder CEO-Betrug), mit Inhalten, die mehr als erkennbar, angemessen und glaubwürdig sind, und die an einen Mitarbeiter gesendet werden, der wahrscheinlich auf die Täuschung hereinfällt und die angeforderte Aktion/Aufgabe ausführt.
Das ist wirklich ein sehr „einfaches“ Beispiel. Aber was wäre, wenn wir dieses Social-Engineering-Angriffsmodell auch mit künstlicher Intelligenz und anderen Arten von Technologien ergänzen würden, die es zu einer viel überzeugenderen und unausweichlicheren Botschaft machen? Was wäre, wenn wir es beispielsweise mit einem Audio- oder Videovideo (natürlich gefälscht, aber von hoher Qualität) begleiten würden, in dem die Person, die auftritt, der Generaldirektor selbst ist, der die Durchführung dieser Aktion beantragt (obwohl dies in Wirklichkeit nicht der Fall ist). so wie das) ?
Wir befinden uns bereits im Zeitalter des Cyber-Angriffs, der künstliche Intelligenz nutzen kann, um Social-Engineering-Nachrichten zu verstärken, indem er einen hervorragenden und unbestreitbaren Identitätsdiebstahl durchführt und damit jede Cybersicherheitsmaßnahme zerstört, die wir möglicherweise eingeführt haben: die Verwendung von Deepfakes (von Videos und/oder Videos). oder Audio)!
Die Lösung und Verteidigung liegt daher zu einem großen Teil in Bewusstsein, Bildung, Schulung und kritischem Denken, das eine bequeme Analyse des Szenarios des komplizierten Gleichgewichts zwischen Social Engineering, künstlicher Intelligenz und Cybersicherheit im Zeitalter von Deepfakes ermöglicht es richtig verwalten.
An der Schnittstelle von Social Engineering, KI und Cybersicherheit entsteht eine komplexe Trilogie, die Herausforderungen und Chancen im heutigen digitalen Zeitalter mit sich bringt. Wenn diese Disziplinen zusammenwachsen, entstehen neue Bedrohungen, wobei Deepfakes (Video oder Audio) eine der besorgniserregendsten Erscheinungsformen sind.
Social Engineering ist eine alte Manipulationskunst, die im digitalen Zeitalter fruchtbaren Boden gefunden hat. Das Ziel besteht darin, den menschlichen Faktor, seine Sensibilität und seine Psychologie auszunutzen. Um dies zu erreichen, nutzen Cyberkriminelle alle Arten von Techniken und Taktiken, um zu täuschen und an vertrauliche Informationen oder andere Ziele zu gelangen. Online-Überzeugung, Meinungsmanipulation, Umgang mit Trends und Überzeugungen, Überzeugung und Voreingenommenheit sind Kinder des Social Engineering.
Während Social Engineering auf dem Verständnis menschlicher Emotionen und Verhaltensweisen basiert und effektivere Überzeugungsstrategien ermöglicht (bekannt als tiefes menschliches Verständnis), können übermäßiges Selbstvertrauen und mangelndes Bewusstsein dazu führen, dass Menschen in Fallen tappen, die darauf abzielen, ihre Schwächen auszunutzen (was wir als menschlich bezeichnen). Schwachstellen).
Künstliche Intelligenz verfügt über erweiterte Lernfähigkeiten, indem sie Muster reproduziert und neue Inhalte generiert, die es bisher nicht gab (generative künstliche Intelligenz). Dies stellt einen neuen Meilenstein von enormer Relevanz für die Erstellung digitaler Inhalte dar. Von der Generierung von Text bis hin zur Erstellung von Bildern und Videos hat die generative KI die Manipulationsmöglichkeiten exponentiell erweitert.
Dies stellt einen großen Schritt in Bezug auf Innovation und Effizienz dar, da KI erhebliche Fortschritte in verschiedenen Branchen und Sektoren ermöglicht. Es ermöglicht jedoch auch die Manipulation von Inhalten, die zur Erstellung falscher und irreführender Inhalte genutzt werden können.
Information ist Macht. Da Informationen ein so wertvolles Gut sind, ist Cybersicherheit zu einer entscheidenden Verteidigungslinie geworden. Der Schutz von Daten und digitaler Infrastruktur ist für die Gewährleistung von Integrität und Vertraulichkeit unerlässlich.
In diesem Sinne können wir ein aktives Schutz- oder Verteidigungsmodell übernehmen und proaktive Maßnahmen nutzen, um Bedrohungen zu erkennen und abzuschwächen, bevor sie wirken und den gewünschten Schaden und die gewünschte Wirkung verursachen.
Aber mit der Weiterentwicklung der Bedrohungstypen entwickeln sich mit dem technologischen Fortschritt auch die Taktiken der Cyberkriminellen weiter und stellen die Verteidigungsstrategien ständig in Frage.
Deepfakes können, wie gesagt, das Ergebnis oder Produkt der Verbindung dieser drei Disziplinen sein: Social Engineering, generative künstliche Intelligenz und die Existenz von Cybersicherheitsmaßnahmen (technologisch oder nicht). Aus dieser Perspektive stellen sie keineswegs einen Wettbewerbsvorteil dar, sondern stellen eine erhebliche Bedrohung dar. Die Möglichkeit, gefälschte Inhalte zu erstellen, sei es durch die Nachahmung von Stimmen oder die überzeugende Nachbildung von Bildern, Gesichtern, Animationen und Videos, birgt Risiken für das Vertrauen in Informationen und deren Wahrhaftigkeit.
Einerseits hat das kreative Potenzial generativer KI in Aspekten wie Training und Unterhaltung, Anwendung in dokumentarischen, kreativen und künstlerischen Aktivitäten, Automatisierung usw. seine positivste Seite. Allerdings sind Desinformation und Postfaktische die Kehrseite der Medaille, denn sie nutzen böswillig Deepfakes, um Fake News zu erzeugen und das Vertrauen in Informationen zu untergraben.
Wie können wir also einen Deepfake erkennen und uns davor schützen? Dies könnte durch bloße Intuition, spezifisches Wissen, Erfahrung und menschliche Analyse geschehen und sogar durch den Einsatz spezifischer Werkzeuge dafür, die der Garant für den zukünftigen Kampf gegen diese Art von Aktivitäten aus dem Bereich der Cybersicherheit sein können:
- Schulung, Sensibilisierung und Schulung zu Deepfakes, um die Menschen darin zu schulen, diese Art von Elementen und die Möglichkeit ihrer Manipulation zu erkennen und sie in die Lage zu versetzen, diese Art von verdächtigen Inhalten richtig zu identifizieren und zu ignorieren.
- Überprüfung von Quellen und Inhalten, die es, möglicherweise als Teil des vorherigen Punktes, ermöglicht, die Authentizität der Quellen und Inhalte des analysierten Deepfakes zu bestätigen oder zu leugnen, indem die Quellen und Ursprünge, aus denen sie scheinbar stammen, und sogar die verdächtigen Inhalte gegenübergestellt werden mit anderen Dateien, von denen wir sicher sind, dass sie authentisch und bekannt sind. So konnten wir Unterschiede und Diskrepanzen feststellen.
- Die Gesichts- und Bewegungsanalyse des Deepfake-Videos, bei der die Synchronisation zwischen den Lippen und der Stimme (dem Klang) sowie die Kohärenz der Gesichtsbewegungen im Einklang mit dem Kontext sorgfältig untersucht werden, könnte zwar komplex (und noch komplexer) sein Diese Technologie weiterentwickelt und verbessert) bietet eine Möglichkeit, mögliche Inkonsistenzen in dem Video aufzudecken. Bei dieser Option wäre es sinnvoller, über spezielle Tools und Software zur Durchführung dieser Analyse zu verfügen.
- Auch bei der Audioanalyse könnten mithilfe spezieller Tools zur Analyse der Frequenz- und Intonationsmuster der Stimme Anomalien in Tonaufnahmen erkannt werden.
- Ein weiterer wichtiger zu berücksichtigender Aspekt wäre die Identifizierung, Analyse und Überprüfung der Metadaten der Videodatei, die Hinweise auf deren Authentizität und Herkunft geben könnten, wobei diese Metadatenzuordnung auch glaubwürdiger gestaltet werden könnte.
- Regulatorische und rechtliche Regelungen zu Content-Plattformen, die (sowohl technologisch als auch aus rechtlicher und regulatorischer Compliance-Sicht) die Veröffentlichung und Verbreitung von Deepfakes und irreführenden Inhalten verhindern.
- Entwicklung von Deepfake-Erkennungstechnologien, die durch Forschung und Entwicklung von Software und Tools Deepfakes automatisch und am effektivsten identifizieren können.
- Defensive künstliche Intelligenz, die im Rahmen des vorherigen Punktes den Einsatz von Lerntechnologien und Algorithmen ermöglichen würde, um Manipulationsmuster in Bildern, Ton und Videos zu erkennen.
Im Kampf gegen Deepfakes ist Bildung von entscheidender Bedeutung. Darüber hinaus werden Forschungsarbeiten zur Verbesserung von Erkennungstaktiken, -techniken und -algorithmen sowie die Implementierung von Abwehrtechnologien von wesentlicher Bedeutung sein, um die Integrität der Informationen zu wahren, ihre Richtigkeit zu gewährleisten, Manipulationen zu vermeiden und ein hohes Maß an digitalem Vertrauen zu erreichen.
Ist Ihnen bekannt, dass in Ihrem Unternehmen ein Deepfake eingegangen ist? Bei Zerolyx sind wir Spezialisten und verfügen über professionelle Intelligence-, Cyber-Intelligence- und Cybersicherheitsdienste, mit denen wir Ihnen helfen können: Cybersecurity Services. Wenn Sie möchten, kontaktieren Sie uns und wir reden.
Zurück zum Blog

Hinterlasse einen Kommentar

Bitte beachten Sie, dass Kommentare vor der Veröffentlichung genehmigt werden müssen.