Von Madrid über Wien bis hin zu Warschau, mehrere europäische Stadtchefs wurden letzte Woche Opfer von Fake-Videocalls mit dem angeblichen Amtskollegen, Vitali Klitschko. Darunter auch der Bürgermeister von Wien, Michael Ludwig. Während anfangs noch Gerüchte um den potentiellen Einsatz von Deepfake in den Medien kursierten, bekannte sich mittlerweile ein russisches Komiker-Duo, Wladimir Kusnezow und Alexej Stoljarow, das unter dem Künstlernamen “Wowan und Lexus” arbeitet, zu den Fake-Anrufen. Gegenüber dem ARD-Politikmagazin Kontraste sagten die Komiker, dass keine künstliche Intelligenz eingesetzt wurde. “Ich will nicht verraten, wie wir es angestellt haben, aber es war leicht”, so Wowan und Lexus im Telefonat mit Kontraste.

Auch wenn die Fake-Anrufe mit Michael Ludwig, Franziska Giffey und Co sich nicht als Deepfake erwiesen haben, wächst nun das Misstrauen der Behörden gegenüber Videocalls. Das Thema sowie das Risiko rund um Deepfake-Anrufe bleibt also dennoch relevant.  Die brutkasten-Redaktion hat sich bei zwei AI- und Digitalisierungs-Experten – Clemens Wasner (enliteAI-CEO und Co-Founder von AI Austria) und Mic Hirschbrich (Co-Founder von Apollo.ai) – erkundigt, wie man sich vor Deepfake-Anrufen schützen und diese identifizieren kann. 

In den letzten Tagen füllten viele Gerüchte rund um Deepfakes und künstlicher Intelligenz das Internet. Es wurde viel spekuliert, ohne über ausreichendes Grundwissen über das Thema zu verfügen. Was bedeutet Deepfake und was ist Deepfake Live tatsächlich? 

Clemens Wasner: Als “Deepfake“ wird die zugrundeliegende Technologie bezeichnet, bei der ein künstliches neuronales Netz (Deep Neural Network) zunächst mit Bilddaten der nachzuahmenden Person trainiert wird. Wer sich dazu genauer einlesen will, kann nach dem Begriff “Generative Adversarial Network (GANs)” suchen. Bei “Deepface Live” handelt es sich um ein als Open Source verfügbares Tool, mit dem Face Swappings – mit vorgefertigten synthetischen Gesichtern – durchgeführt werden können. Darüber hinaus ist es auch möglich, eigene Gesichter – im aktuellen Beispiel das Gesicht von Vitali Klitschko – zu trainieren. Um dies aber in ausreichend hoher Qualität hinzubekommen, ist ein großer Aufwand zu betreiben – die Anleitung hierfür hat 100 Schritte.

Wie gut sind diese Technologien? 

Mic Hirschbrich: Technisch hat Deepfake in der Vergangenheit immer dann besonders gut funktioniert, wenn es Referenz-Doubles gab, die dem Original sehr ähnlich sahen. Ich erinnere mich an den berühmten Tom Cruise Deep Fake. Der Schauspieler hat schon ohne KI-Einsatz eine sehr große Ähnlichkeit.  Dennoch ist das live besonders anspruchsvoll. Bei “Live Deep Fake” von bekannten Prominenten und so langer Interaktion waren bislang Fehler meist sichtbar und erkennbar. 

Ist es möglich, Deepfake in Gesprächen zu erkennen? Wenn ja, wie ?

Clemens Wasner: Da wäre zunächst die Qualität des Fake-Gesichtes zu beachten. Oft verfügen Deepfake-Gesichter über weniger Details als das Ausgangsbild – wie weniger Falten oder Gesichtsbehaarung. Diese sind im Livestream natürlich nur sehr schwer zu erkennen, da man parallel dazu keinen Vergleich mit dem Original durchführen kann. Was aber sehr wohl auffallen kann, sind unterschiedliche Pigmentierungen von Gesicht und Körper, wie es bei den ersten Zelensky-Fakes im Februar der Fall war. 

Ein weiteres potentielles Erkennungsmerkmal sind der Mund und die Mundbewegung während des Sprechens. Deepfakes wirken hier oft unnatürlich, da sich die Lippen entweder zu wenig bewegen – ähnlich den Lippen nachdem man eine Spritze beim Zahnarzt bekommen hat – oder sich zu sehr biegen. Neben der eigentlichen Qualität des Gesichtes gibt es aber auch noch Videostream-spezifische Merkmale wie Bildrate, Auflösung und Beleuchtung, die darüber Aufschluss geben können, ob am Bild manipuliert wurde.

Wie kann ich mich vor Deepfake schützen?

Clemens Wasner: Als Gesellschaft müssen wir zunächst bei unserer Medienkompetenz ansetzen, um die Sensibilisierung gegenüber Falschinformationen zu erhöhen. Darüber hinaus werden Medien Anstrengungen unternehmen müssen, um sicherzugehen, dass sie keine Deepfakes verbreiten. Als wahrscheinlichstes Szenario erscheint mir dabei, dass sie entlang der Redaktionsarbeit Tools verwenden können (ähnlich dem MS Tool), welche Fakten- und Deepfake-Checks durchführen. Um hier immer am Laufenden zu bleiben, wäre wie im Cyber-Security-Bereich ein Zertifizierungssystem denkbar, dass den Stand der verwendeten Software sicherstellt und am Laufenden hält.

Mic Hirschbrich: Mit Medienkompetenz, Filtern und ordentlichen Protokollen. Bei der weitaus größeren Plage – den Fake-News – haben wir gelernt, dass für die große Zahl der Falschnachrichten sich nur sehr wenige Quellen verantwortlich zeichnen. Beim US Wahlkampf hat man mit der Sperre einer Handvoll Accounts – fast 90% aller Wahl-Falschnachrichten verhindern können. Da Deep-fake technisch aufwendiger ist, ist die Quellenzahl nochmal deutlich geringer. Man sollte diese Troll-Fabriken aussperren und nicht immer gleich eine Technologie-Debatte lostreten. Das Problem sind die (wenigen) Trolle, die große (staatliche) Mittel zur Verfügung haben. 

Gibt es dazu schon bestehende Lösungen oder sind diese noch in der Entwicklungsphase? 

Clemens Wasner: Auf technologischer Seite wird auf jeden Fall intensiv an Lösungen gearbeitet. So haben die großen IT Konzerne bereits vor drei Jahren damit begonnen, sehr große Datensätze an Deepfakes freizugeben, damit Forscher:innen und Startups Algorithmen für die Erkennung dieser entwickeln können. Die jetzige Deepfake-Welle wird zu einer Beschleunigung dieser Bemühungen führen und es ist nur noch eine Frage der Zeit, bis gängige Videokonferenz-Tools Deepfake-Detektoren anbieten werden.

Mic Hirschbrich: Wie beim Spam-Schutz, werden wir Deepfake-Filter selbstverständlich einsetzen. Jedoch wird es natürlich zu größeren Vorfällen kommen, vor allem in den ersten Phasen. Die Frage ist da viel mehr, wie bringen wir diese Filter-Erkennungs-Technologie an verschiedene Nutzer:innen in der Politik, den Medien und der Wirtschaft.  Der Klitschko-Skandal hätte einfach durch saubere Protokolle verhindert werden können. So etwas sollte nicht passieren.