Künstliche Intelligenz kann Video- und Audiomaterial so verändern, dass es nicht mehr als Fälschung erkennbar ist. Auch Kriminelle haben das erkannt und so werden Deepfakes fürs Social Engineering, zum Überwinden von Authentisierungssystemen oder für Desinformationskampagnen genutzt. Wie lassen sich Deepfakes erkennen? Und wie können Sie sich schützen?

Als im Büro das Telefon klingelt, ist der Abteilungsleiter dran und bittet Sie um eine dringende Geldüberweisung. Die ist schnell getätigt und als Sie Ihren Chef bei der nächsten Gelegenheit darauf ansprechen, weiß der von nichts. Aber zu spät: Das Kind ist bereits in den Brunnen gefallen und der Deepfake-Betrug war erfolgreich.

Was ist ein Deepfake?

So oder so ähnlich läuft ein Deepfake ab, bei dem mittels künstlicher Intelligenz (KI) täuschend echte Bilder-, Audio- oder Videofälschungen erzeugt werden. Dabei lassen sich Gesichter und Stimmen so manipulieren und austauschen, dass die betroffenen Personen in einem völlig anderen Kontext dargestellt werden und Dinge äußern, die sie sonst nicht sagen würden.

Beispiele dieser Art gibt es viele: Sie reichen von harmlosen Scherzen mit Prominenten wie dem Terminator-Deepfake bis hin zu gezielten Desinformationskampagnen, bei denen der Öffentlichkeit ein kapitulierender ukrainischer Präsident vorgegaukelt wird.

Ganz klar: Deepfakes bieten großes Täuschungspotential und so verwundert es nicht, dass auch Kriminelle an der Deepfake-Technologie interessiert sind und Attacken mit der KI-Technologie als die nächste große Cyberbedrohung im Rampenlicht stehen.

Deepfake-Bedrohungsszenarien auf einen Blick

Social Engineering: Deepfakes werden zusammen mit gezielten Phishing-Angriffen eingesetzt, um sich Informationen wie Anmeldedaten oder Geschäftsgeheimnisse zu erschleichen. Oder wie im Beispiel oben verdeutlicht, um über einen sogenannten CEO-Fraud finanzielle Mittel abzuschöpfen.

Biometrische Systeme überwinden: Da Verfahren wie das Faceswapping oder die Stimmenfälschung in Echtzeit lauffähig sind, werden sie eingesetzt, um biometrische Systeme zu täuschen. Vor allem Remote-Identifikationsverfahren per Stimme oder Video sind solchen Attacken ausgesetzt.

Desinformationskampagnen: Indem man öffentlich wirksame Inhalte gezielt manipuliert und Schlüsselpersonen falsche Aussagen treffen oder Botschaften verkünden lässt, streut man gezielt Falschinformationen. Genauso lassen sich Deepfakes nutzen, um Menschen gezielt zu verleumden oder zu diskreditieren.

Videofälschung mit Faceswapping und Face Reenactment

Zur Bild- und Videofälschung kommt meist das „Faceswapping“ zum Einsatz. Hierbei wird das Gesicht einer Person mit einem generierten Gesicht getauscht. Damit das zuverlässig funktioniert, müssen neuronale Netze die nötigen Information vorab aus einer Vielzahl von Bildern extrahieren, diese analysieren und damit trainieren. Zusätzlich werden noch die Kopf- und Lippenbewegungen wie auch die Mimik mittels „Face Reenactment“ manipuliert.

Anschließend ist die KI in der Lage, Gesichter in Echtzeit auszutauschen. Und zwar in täuschend echter Qualität: Mit entsprechend potenter Hardware lassen sich Nahaufnahmen in hohen Bildauflösungen und Detailtiefen erzeugen.

Stimmenfälschung mit Text-to-Speech und Voice Conversion

Um Stimmen zu manipulieren, kommen vor allem „Text-to-Speech (TTS)“- und „Voice Conversion (VC)“-Verfahren zum Einsatz. Diese verwandeln vorgegebene Textinhalte in Audiosignale, die in ihrer Sprechcharakteristik mit einer ausgewählten Zielperson übereinstimmen sollen.

Damit auch das täuschend echt funktioniert, müssen die Verfahren auch hier mittels Deep Learning und einer ausreichenden Datenbasis trainiert sein. Dafür braucht es vor allem genügend Audiomaterial der Zielperson in einer konstant hohen und gleichbleibenden Qualität.

Wie kann man Deepfakes erkennen?

Auch wenn die Technologie immer weiter voranschreitet und Deepfakes immer realistischer werden – schaut man genau hin, sind vor allem die Faceswapping- Videos noch mit dem bloßen Auge erkennbar. Die folgenden Tipps und Tools helfen dabei, Deepfake-Videos als solche zu entlarven:

  • Unnatürliche Gesichter mit einer seltsamen Mimik, unlogische Schatten oder Haaren können ein Hinweis darauf sein, dass es sich um einen Deepfake handelt.
  • Unscharfe Übergänge wie z. B. zwischen Gesicht und Haaren oder Gesicht und Hals sind verräterische Merkmale.
  • Fehlendes Blinzeln weist ebenfalls auf einen Deepfake hin ­– denn auch, wenn sie sich darüber nicht bewusst sind, müssen Menschen blinzeln.
  • Unterschiedliche Qualitäten im Video oder unlogische Übergänge vom Gesicht zum Bild deuten meist auf eine Fälschung hin.
  • Nutzen Sie spezielle Tools wie z. B. den Deepware Scanner oder DeepFake-o-meter, um Fälschungen zu erkennen.
  • Überprüfen Sie den Kontext, indem Sie sich fragen, wo Sie auf das Video oder auf das Bild gestoßen sind und ob die Quelle vertrauenswürdig ist. Bleiben Sie stets skeptisch und bitten Sie z. B. um die Möglichkeit eines Rückrufs, falls Sie unsicher sind.

Deepfake-Bewusstsein mit Security Awareness Training steigern

Da es das Ziel von Deepfakes ist, Menschen zu täuschen und zu manipulieren, ist eine erhöhte Digitalkompetenz zur Abwehr entscheidend. Und ein bewährtes Mittel, um die Cyber Security Awareness zu steigern, sind Security Awareness Trainings.

Dabei kommt es auf regelmäßige und langfristige Trainingseinheiten an: Denn nur bei ausreichender und kontinierlicher Dauerbelastung gräbt sich das Wissen um die Risiken des Cyberspace tief ins Bewusstsein der eigenen Mitarbeiter ein. Bis es zu einem natürlichen Reflex wird, der in verdächtigen Situationen automatisch und richtig reagiert. So haben auch Deepfakes keine Chance mehr.

Deepfakes werden besser, Gegenmaßnahmen auch

Bereits heute ist jeder mit Hilfe von Programmen, Apps und der entsprechenden Software ohne Vorkenntnisse in der Lage, täuschend echt wirkende Videos zu erstellen. Dabei verbessert sich die Täuschungskraft mit steigender Rechenleistung und der Leistungsfähigkeit künstlicher Intelligenz stetig.

Um noch zwischen autenthischem und gefälschtem Material zu unterscheiden, kommt es vor allem auf die eigene Sensibilierung an. Dazu werden auch Programme entwickelt, die ebenfalls Künstliche Intelligenz nutzen, um Video- oder Audioinhalte zu prüfen und Fälschungen zu identifizieren. Und nicht zuletzt sind es auch Schutzmaßnahmen wie eine Zwei-Faktor-Authentisierung (2FA) oder digitale Signaturen, die auch bei erbeuteten Zugangsdaten noch einen gewissen Schutz bieten.