Deepfakes sind lediglich eines der zahlreichen Negativeffekte der jüngsten Fortschritte auf dem Gebiet der künstlichen Intelligenz. Gefälschte Medien, die durch maschinelle Lernalgorithmen erzeugt wurden, haben in den letzten Jahren viel Anklang gefunden. Alyssa Millers Vortrag, „Losing our Reality“ (dt. Der Verlust unserer Realität), auf der RSA-Konferenz 2020, bietet einige Fakten dazu, warum es an der Zeit ist, Deepfakes als Bedrohung zu betrachten und was Ihr Unternehmen tatsächlich tun kann, um Auswirkungen eines derartigen Angriffs zu mindern.
Wie Deepfakes erzeugt werden
Der gebräuchlichste Ansatz für die Erstellung von Deepfakes ist die Verwendung eines Systems mit dem Namen GAN (Generative Adversial Networks). GANs bestehen aus zwei neuronalen Netzen, die miteinander konkurrieren. Zur Vorbereitung werden beide Netzwerke auf reale Bilder trainiert. Dann beginnt der Konkurrenzmechanismus: Ein Netzwerk generiert Bilder (daher der Name Generator), während das andere, konkurrierende Netzwerk versucht festzustellen, ob das Bild echt oder falsch ist (letzteres Netzwerk wird als Diskriminator bezeichnet).
So entwickelt das generative Netzwerk einen Lernprozess aus dem Ergebnis. Gleichzeitig lernt der Diskriminator, wie er seine Leistung verbessern kann. Mit jedem Zyklus wird die Leistung beider Netzwerke zunehmend verbessert.
Nehmen wir an, ein solches System hat eine Million solcher Trainingszyklen absolviert: Das GAN hat gelernt, wie man gefälschte Bilder erzeugt, die ein ebenso fortgeschrittenes neuronales Netzwerk nicht von echten unterscheiden kann.
Diese Methode ist in vielen Anwendungen tatsächlich nützlich. Abhängig von den vorbereitenden Daten lernt das generative Netzwerk, bestimmte Arten von Bildern zu generieren.
Für Deepfakes wird der Algorithmus natürlich auf reale Fotos bestimmter Personen trainiert, was zu einem Netzwerk führt, das eine unendliche Anzahl überzeugender (aber gefälschter) Fotos einer Person erzeugen kann, die man in einem Video zusammenschneiden kann. Ähnliche Methoden könnten gefälschte Audiodateien erzeugen und ja, Betrüger verwenden bereits Deepfake-Audios.
Wie überzeugend Deepfakes geworden sind
Frühe Deepfake-Videos sahen lächerlich aus, aber die Technologie hat sich zu diesem Zeitpunkt so weit entwickelt, dass solche Medien erschreckend überzeugend wirken. Eines der bemerkenswertesten Beispiele für erschreckend überzeugende Deepfakes aus dem Jahr 2018 war ein Fake-Video von Barack Obama, in dem dieser über Deepfakes sprach (und obendrein gelegentlich den derzeitigen US-Präsidenten beleidigte). Mitte 2019 sahen wir ein kurzes Video von Mark Zuckerberg, der überraschenderweise mal ehrlich über den aktuellen Stand der Privatsphäre berichtete.
Um zu verstehen, wie gut die Technologie bereits geworden ist, sollten Sie einen Blick auf das folgende Video werfen. Der Impressionist Jim Meskimen schuf es in Zusammenarbeit mit dem Deepfake-Künstler Sham00k. Ersterer war für die Stimmen verantwortlich, während letzterer die Gesichter von rund 20 Promis mit Deepfake-Software in einem Video vereinte. Das Ergebnis ist wirklich faszinierend.
In der Videobeschreibung seines „Behind-the-scenes“ -Videos schreibt Shamook folgendes: „In dem Video stecken etwas mehr als 250 Stunden Arbeit, 1200 Stunden Filmmaterial, 300.000 Bilder und fast 1 Terabyte an Daten.“ Das heißt, ein solches Video zu machen ist keine Kleinigkeit. Solche überzeugenden Desinformationen können jedoch möglicherweise massive Auswirkungen auf die Märkte oder Wahlen haben, was den Prozess erschreckend einfach und kostengünstig erscheinen lässt.
Aus diesem Grund hat Kalifornien fast zur gleichen Zeit, als das oben genannte Video veröffentlicht wurde, politische Deepfake-Videos während der Wahlsaison verboten. Probleme gibt es aber nach wie vor. So sind Deepfakes im Allgemeinen eine expressive Ausdrucksform.
Das zweite Problem ist sowohl technisch als auch praktisch: Wie genau soll man ein falsches Video von einem echten unterscheiden?
Wie man Deepfakes erkennt
Maschinelles Lernen ist unter Wissenschaftlern auf der ganzen Welt der letzte Schrei, und das Deepfake-Problem sieht interessant und herausfordernd genug aus, um viele von ihnen zum Einstieg in die Materie zu verleiten. Aus diesem Grund haben sich einige Forschungsprojekte auf die Verwendung der Bildanalyse zur Erkennung von Deepfakes konzentriert.
In einem im Juni 2018 veröffentlichten Artikel wird beispielsweise beschrieben, wie die Analyse von Augenzwinkern zur Erkennung von Deepfake-Videos beitragen kann. Die Idee ist, dass normalerweise nicht genügend Fotos von einer bestimmten blinkenden Person verfügbar sind, sodass neuronale Netze möglicherweise nicht genug zum Trainieren haben. Tatsächlich blinzelten Menschen in Deepfakes zum Zeitpunkt der Veröffentlichung des Forschungsartikel viel zu selten, um es zu glauben und obwohl es den Menschen schwer fiel, die Diskrepanz zu erkennen, half die Computeranalyse.
In zwei Beiträgen, die im November 2018 veröffentlicht wurden, wurde vorgeschlagen, nach gesichtsverändernden Merkmalen und inkonsistenten Kopfhaltungen zu suchen. Ein anderer Forschungsbeitrag aus dem Jahr 2019 erklärte eine ausgefeilte Technik, die die Gesichtsausdrücke und Bewegungen analysiert, die für das Sprechmuster eines Individuums typisch sind.
Miller weist jedoch darauf hin, dass diese Methoden auf lange Sicht wahrscheinlich nicht erfolgreich sein werden. Solche Forschungen geben den Deepfake-Erstellern nämlich Feedback, das sie verwenden können, um ihre diskriminierenden neuronalen Netze zu verbessern, was wiederum zu einer besseren Ausbildung generativer Netze und einer weiteren Verbesserung von Deepfakes führt.
Verwendung der Unternehmenskommunikation zur Minderung von Deepfake-Bedrohungen
Angesichts der oben genannten Probleme wird derzeit keine rein technologische Lösung für das Deepfake-Problem sehr effektiv sein. Es gibt aber auch andere Möglichkeiten. Insbesondere können Sie die Bedrohung durch effektive Kommunikation mindern. Sie müssen Informationen zu Ihrem Unternehmen überwachen und bereit sein, die Erzählfluss zu kontrollieren, falls Sie einem Desinformationsangriff ausgesetzt sind.
Die folgenden Tipps fassen die Vorschläge von Alyssa Miller zusammen, um Ihr Unternehmen auf Deepfake-Bedrohungen vorzubereiten. Übrigens können dieselben Methoden auch für den Umgang mit anderen Arten von PR-Pannen hilfreich sein:
- Minimieren Sie die Kanäle für die Unternehmenskommunikation.
- Konsistente Informationsverteilung fördern;
- Entwicklung eines Desinformationsreaktionsplans (behandeln Sie diese als Sicherheitsvorfälle);
- Organisation einer zentralen Überwachungs- und Berichtsfunktion;
- Förderung der Faktenüberprüfung;
- Verfolgung der Entwicklungstrends von Gegenmaßnahmen zur Erkennung und Vorbeugung von Deepfakes.