30.06.2022

Experten klären auf: So erkennt man Deepfake-Videos

Nach einer Serie von Fake-Videocalls mit dem angeblichen Bürgermeister von Kiew - Vitali Klitschko - sind nun viele europäische Behörden beunruhigt über weitere Troll-Anrufe. Die AI-Experten Clemens Wasner und Mic Hirschbrich klären auf, woran Deepfake-Videos zu erkennen sind.
/artikel/so-kann-man-deepfake-videos-erkennen
AI-Experten Mic Hirschbrich und Clemens Wasner. (c) Mic Hirschbrich und enliteAI
AI-Experten Mic Hirschbrich und Clemens Wasner. (c) Mic Hirschbrich und enliteAI

Von Madrid über Wien bis hin zu Warschau, mehrere europäische Stadtchefs wurden letzte Woche Opfer von Fake-Videocalls mit dem angeblichen Amtskollegen, Vitali Klitschko. Darunter auch der Bürgermeister von Wien, Michael Ludwig. Während anfangs noch Gerüchte um den potentiellen Einsatz von Deepfake in den Medien kursierten, bekannte sich mittlerweile ein russisches Komiker-Duo, Wladimir Kusnezow und Alexej Stoljarow, das unter dem Künstlernamen “Wowan und Lexus” arbeitet, zu den Fake-Anrufen. Gegenüber dem ARD-Politikmagazin Kontraste sagten die Komiker, dass keine künstliche Intelligenz eingesetzt wurde. “Ich will nicht verraten, wie wir es angestellt haben, aber es war leicht”, so Wowan und Lexus im Telefonat mit Kontraste.

Auch wenn die Fake-Anrufe mit Michael Ludwig, Franziska Giffey und Co sich nicht als Deepfake erwiesen haben, wächst nun das Misstrauen der Behörden gegenüber Videocalls. Das Thema sowie das Risiko rund um Deepfake-Anrufe bleibt also dennoch relevant.  Die brutkasten-Redaktion hat sich bei zwei AI- und Digitalisierungs-Experten – Clemens Wasner (enliteAI-CEO und Co-Founder von AI Austria) und Mic Hirschbrich (Co-Founder von Apollo.ai) – erkundigt, wie man sich vor Deepfake-Anrufen schützen und diese identifizieren kann. 

In den letzten Tagen füllten viele Gerüchte rund um Deepfakes und künstlicher Intelligenz das Internet. Es wurde viel spekuliert, ohne über ausreichendes Grundwissen über das Thema zu verfügen. Was bedeutet Deepfake und was ist Deepfake Live tatsächlich? 

Clemens Wasner: Als “Deepfake“ wird die zugrundeliegende Technologie bezeichnet, bei der ein künstliches neuronales Netz (Deep Neural Network) zunächst mit Bilddaten der nachzuahmenden Person trainiert wird. Wer sich dazu genauer einlesen will, kann nach dem Begriff “Generative Adversarial Network (GANs)” suchen. Bei “Deepface Live” handelt es sich um ein als Open Source verfügbares Tool, mit dem Face Swappings – mit vorgefertigten synthetischen Gesichtern – durchgeführt werden können. Darüber hinaus ist es auch möglich, eigene Gesichter – im aktuellen Beispiel das Gesicht von Vitali Klitschko – zu trainieren. Um dies aber in ausreichend hoher Qualität hinzubekommen, ist ein großer Aufwand zu betreiben – die Anleitung hierfür hat 100 Schritte.

Wie gut sind diese Technologien? 

Mic Hirschbrich: Technisch hat Deepfake in der Vergangenheit immer dann besonders gut funktioniert, wenn es Referenz-Doubles gab, die dem Original sehr ähnlich sahen. Ich erinnere mich an den berühmten Tom Cruise Deep Fake. Der Schauspieler hat schon ohne KI-Einsatz eine sehr große Ähnlichkeit.  Dennoch ist das live besonders anspruchsvoll. Bei “Live Deep Fake” von bekannten Prominenten und so langer Interaktion waren bislang Fehler meist sichtbar und erkennbar. 

Ist es möglich, Deepfake in Gesprächen zu erkennen? Wenn ja, wie ?

Clemens Wasner: Da wäre zunächst die Qualität des Fake-Gesichtes zu beachten. Oft verfügen Deepfake-Gesichter über weniger Details als das Ausgangsbild – wie weniger Falten oder Gesichtsbehaarung. Diese sind im Livestream natürlich nur sehr schwer zu erkennen, da man parallel dazu keinen Vergleich mit dem Original durchführen kann. Was aber sehr wohl auffallen kann, sind unterschiedliche Pigmentierungen von Gesicht und Körper, wie es bei den ersten Zelensky-Fakes im Februar der Fall war. 

Ein weiteres potentielles Erkennungsmerkmal sind der Mund und die Mundbewegung während des Sprechens. Deepfakes wirken hier oft unnatürlich, da sich die Lippen entweder zu wenig bewegen – ähnlich den Lippen nachdem man eine Spritze beim Zahnarzt bekommen hat – oder sich zu sehr biegen. Neben der eigentlichen Qualität des Gesichtes gibt es aber auch noch Videostream-spezifische Merkmale wie Bildrate, Auflösung und Beleuchtung, die darüber Aufschluss geben können, ob am Bild manipuliert wurde.

Wie kann ich mich vor Deepfake schützen?

Clemens Wasner: Als Gesellschaft müssen wir zunächst bei unserer Medienkompetenz ansetzen, um die Sensibilisierung gegenüber Falschinformationen zu erhöhen. Darüber hinaus werden Medien Anstrengungen unternehmen müssen, um sicherzugehen, dass sie keine Deepfakes verbreiten. Als wahrscheinlichstes Szenario erscheint mir dabei, dass sie entlang der Redaktionsarbeit Tools verwenden können (ähnlich dem MS Tool), welche Fakten- und Deepfake-Checks durchführen. Um hier immer am Laufenden zu bleiben, wäre wie im Cyber-Security-Bereich ein Zertifizierungssystem denkbar, dass den Stand der verwendeten Software sicherstellt und am Laufenden hält.

Mic Hirschbrich: Mit Medienkompetenz, Filtern und ordentlichen Protokollen. Bei der weitaus größeren Plage – den Fake-News – haben wir gelernt, dass für die große Zahl der Falschnachrichten sich nur sehr wenige Quellen verantwortlich zeichnen. Beim US Wahlkampf hat man mit der Sperre einer Handvoll Accounts – fast 90% aller Wahl-Falschnachrichten verhindern können. Da Deep-fake technisch aufwendiger ist, ist die Quellenzahl nochmal deutlich geringer. Man sollte diese Troll-Fabriken aussperren und nicht immer gleich eine Technologie-Debatte lostreten. Das Problem sind die (wenigen) Trolle, die große (staatliche) Mittel zur Verfügung haben. 

Gibt es dazu schon bestehende Lösungen oder sind diese noch in der Entwicklungsphase? 

Clemens Wasner: Auf technologischer Seite wird auf jeden Fall intensiv an Lösungen gearbeitet. So haben die großen IT Konzerne bereits vor drei Jahren damit begonnen, sehr große Datensätze an Deepfakes freizugeben, damit Forscher:innen und Startups Algorithmen für die Erkennung dieser entwickeln können. Die jetzige Deepfake-Welle wird zu einer Beschleunigung dieser Bemühungen führen und es ist nur noch eine Frage der Zeit, bis gängige Videokonferenz-Tools Deepfake-Detektoren anbieten werden.

Mic Hirschbrich: Wie beim Spam-Schutz, werden wir Deepfake-Filter selbstverständlich einsetzen. Jedoch wird es natürlich zu größeren Vorfällen kommen, vor allem in den ersten Phasen. Die Frage ist da viel mehr, wie bringen wir diese Filter-Erkennungs-Technologie an verschiedene Nutzer:innen in der Politik, den Medien und der Wirtschaft.  Der Klitschko-Skandal hätte einfach durch saubere Protokolle verhindert werden können. So etwas sollte nicht passieren. 

Deine ungelesenen Artikel:
vor 2 Stunden

Glink: NÖ-Startup kooperiert mit A1-Tochter

Erst 2020 von den Brüdern Vitali und Mathias Grünsteidl gegründet, ist Glink mittlerweile zu einem führenden Anbieter von Blockchain-Lösungen geworden. Nun hat das Startup mit Sitz in Traismauer eine strategische Partnerschaft mit der A1-Tochter World Direct bekanntgegeben.
/artikel/glink-noe-startup-kooperiert-mit-a1-tochter
vor 2 Stunden

Glink: NÖ-Startup kooperiert mit A1-Tochter

Erst 2020 von den Brüdern Vitali und Mathias Grünsteidl gegründet, ist Glink mittlerweile zu einem führenden Anbieter von Blockchain-Lösungen geworden. Nun hat das Startup mit Sitz in Traismauer eine strategische Partnerschaft mit der A1-Tochter World Direct bekanntgegeben.
/artikel/glink-noe-startup-kooperiert-mit-a1-tochter
Landeshauptfrau Johanna Mikl-Leitner (Mitte) mit Florian Schirg und Michael Moll von accent Inkubator (links), Sarah Lanzanasto und Dominik Windl von World Direct (mittig) und Vitali und Mathias Grünsteidl von Glink (rechts). (c) NLK Pfeffer

Das Ziel der Kooperation: Die Glink-Lösung weiterzuentwickeln und auf das Web 3.0 hinzuarbeiten. Das (noch) utopische World-Wide-Web-Konzept basiert auf der Vision, durch Blockchain-Systeme sichere Transaktionen ohne zentrale Kontrollinstanz zu ermöglichen. Mithilfe von künstlicher Intelligenz und Blockchains sollen Daten maschinenlesbar werden. Dadurch erhoffen sich viele, ein benutzerfreundlicheres und personalisierteres Internet gestalten zu können, ohne Sicherheitsbedenken zu umgehen – auch Glink.

Mit World Direct, einem erfahrenen Entwickler von Software und Betreiber von IT-Systemen, sowie der Teilnahme im accent Inkubationsprogramm haben die Brüder Grünsteidl nun mehr Ressourcen und Infrastruktur zur Verfügung, um auf das Web 3.0 hinzuarbeiten. Damit will man in Zukunft nicht nur den Finanzsektor erschließen, sondern auch Bereiche wie Klimaschutz, Energie und Versicherung.

„Für Glink ist die Zusammenarbeit mit World Direct und die Inkubation bei uns im accent strategisch von großer Bedeutung. Sie erhalten dadurch Zugang zu Fachwissen, Ressourcen und einem breiten Netzwerk, um ihre Innovations- und Entwicklungsziele zu erreichen und ihr Angebot an Blockchain-Infrastrukturlösungen weiter auszubauen“, so Michael Moll, Geschäftsführer von accent Inkubator.

Auch Niederösterreichs Landeshauptfrau Johanna Mikl-Leitner betont das Potenzial der Zusammenarbeit: „Sie unterstreicht einmal mehr die Effektivität unserer Unterstützungsprogramme wie dem accent Inkubator und zeigt, wie wir aktiv dazu beitragen, den Wirtschaftsstandort Niederösterreich zu stärken“, sagt sie.

Gründerbrüder Grünsteidl weiterhin ambitioniert

An die 100.000 Transaktionen wurden bisher über Glink abgewickelt, 2023 wurde das Startup für seine Lösungen mit dem Blockchain Award der Wirtschaftskammer Österreich ausgezeichnet. Darauf wollen sich die Gründer jedoch nicht ausruhen: Ziel ist es, auch international zu einem bedeutenden internationalen Player zu werden. „Wir freuen uns darauf, die Möglichkeiten der Blockchain-Technologie weiter auszubauen“, so Glink-Co-Gründer Mathias Grünsteidl.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos