30.06.2022

Experten klären auf: So erkennt man Deepfake-Videos

Nach einer Serie von Fake-Videocalls mit dem angeblichen Bürgermeister von Kiew - Vitali Klitschko - sind nun viele europäische Behörden beunruhigt über weitere Troll-Anrufe. Die AI-Experten Clemens Wasner und Mic Hirschbrich klären auf, woran Deepfake-Videos zu erkennen sind.
/artikel/so-kann-man-deepfake-videos-erkennen
AI-Experten Mic Hirschbrich und Clemens Wasner. (c) Mic Hirschbrich und enliteAI
AI-Experten Mic Hirschbrich und Clemens Wasner. (c) Mic Hirschbrich und enliteAI

Von Madrid über Wien bis hin zu Warschau, mehrere europäische Stadtchefs wurden letzte Woche Opfer von Fake-Videocalls mit dem angeblichen Amtskollegen, Vitali Klitschko. Darunter auch der Bürgermeister von Wien, Michael Ludwig. Während anfangs noch Gerüchte um den potentiellen Einsatz von Deepfake in den Medien kursierten, bekannte sich mittlerweile ein russisches Komiker-Duo, Wladimir Kusnezow und Alexej Stoljarow, das unter dem Künstlernamen “Wowan und Lexus” arbeitet, zu den Fake-Anrufen. Gegenüber dem ARD-Politikmagazin Kontraste sagten die Komiker, dass keine künstliche Intelligenz eingesetzt wurde. “Ich will nicht verraten, wie wir es angestellt haben, aber es war leicht”, so Wowan und Lexus im Telefonat mit Kontraste.

Auch wenn die Fake-Anrufe mit Michael Ludwig, Franziska Giffey und Co sich nicht als Deepfake erwiesen haben, wächst nun das Misstrauen der Behörden gegenüber Videocalls. Das Thema sowie das Risiko rund um Deepfake-Anrufe bleibt also dennoch relevant.  Die brutkasten-Redaktion hat sich bei zwei AI- und Digitalisierungs-Experten – Clemens Wasner (enliteAI-CEO und Co-Founder von AI Austria) und Mic Hirschbrich (Co-Founder von Apollo.ai) – erkundigt, wie man sich vor Deepfake-Anrufen schützen und diese identifizieren kann. 

In den letzten Tagen füllten viele Gerüchte rund um Deepfakes und künstlicher Intelligenz das Internet. Es wurde viel spekuliert, ohne über ausreichendes Grundwissen über das Thema zu verfügen. Was bedeutet Deepfake und was ist Deepfake Live tatsächlich? 

Clemens Wasner: Als “Deepfake“ wird die zugrundeliegende Technologie bezeichnet, bei der ein künstliches neuronales Netz (Deep Neural Network) zunächst mit Bilddaten der nachzuahmenden Person trainiert wird. Wer sich dazu genauer einlesen will, kann nach dem Begriff “Generative Adversarial Network (GANs)” suchen. Bei “Deepface Live” handelt es sich um ein als Open Source verfügbares Tool, mit dem Face Swappings – mit vorgefertigten synthetischen Gesichtern – durchgeführt werden können. Darüber hinaus ist es auch möglich, eigene Gesichter – im aktuellen Beispiel das Gesicht von Vitali Klitschko – zu trainieren. Um dies aber in ausreichend hoher Qualität hinzubekommen, ist ein großer Aufwand zu betreiben – die Anleitung hierfür hat 100 Schritte.

Wie gut sind diese Technologien? 

Mic Hirschbrich: Technisch hat Deepfake in der Vergangenheit immer dann besonders gut funktioniert, wenn es Referenz-Doubles gab, die dem Original sehr ähnlich sahen. Ich erinnere mich an den berühmten Tom Cruise Deep Fake. Der Schauspieler hat schon ohne KI-Einsatz eine sehr große Ähnlichkeit.  Dennoch ist das live besonders anspruchsvoll. Bei “Live Deep Fake” von bekannten Prominenten und so langer Interaktion waren bislang Fehler meist sichtbar und erkennbar. 

Ist es möglich, Deepfake in Gesprächen zu erkennen? Wenn ja, wie ?

Clemens Wasner: Da wäre zunächst die Qualität des Fake-Gesichtes zu beachten. Oft verfügen Deepfake-Gesichter über weniger Details als das Ausgangsbild – wie weniger Falten oder Gesichtsbehaarung. Diese sind im Livestream natürlich nur sehr schwer zu erkennen, da man parallel dazu keinen Vergleich mit dem Original durchführen kann. Was aber sehr wohl auffallen kann, sind unterschiedliche Pigmentierungen von Gesicht und Körper, wie es bei den ersten Zelensky-Fakes im Februar der Fall war. 

Ein weiteres potentielles Erkennungsmerkmal sind der Mund und die Mundbewegung während des Sprechens. Deepfakes wirken hier oft unnatürlich, da sich die Lippen entweder zu wenig bewegen – ähnlich den Lippen nachdem man eine Spritze beim Zahnarzt bekommen hat – oder sich zu sehr biegen. Neben der eigentlichen Qualität des Gesichtes gibt es aber auch noch Videostream-spezifische Merkmale wie Bildrate, Auflösung und Beleuchtung, die darüber Aufschluss geben können, ob am Bild manipuliert wurde.

Wie kann ich mich vor Deepfake schützen?

Clemens Wasner: Als Gesellschaft müssen wir zunächst bei unserer Medienkompetenz ansetzen, um die Sensibilisierung gegenüber Falschinformationen zu erhöhen. Darüber hinaus werden Medien Anstrengungen unternehmen müssen, um sicherzugehen, dass sie keine Deepfakes verbreiten. Als wahrscheinlichstes Szenario erscheint mir dabei, dass sie entlang der Redaktionsarbeit Tools verwenden können (ähnlich dem MS Tool), welche Fakten- und Deepfake-Checks durchführen. Um hier immer am Laufenden zu bleiben, wäre wie im Cyber-Security-Bereich ein Zertifizierungssystem denkbar, dass den Stand der verwendeten Software sicherstellt und am Laufenden hält.

Mic Hirschbrich: Mit Medienkompetenz, Filtern und ordentlichen Protokollen. Bei der weitaus größeren Plage – den Fake-News – haben wir gelernt, dass für die große Zahl der Falschnachrichten sich nur sehr wenige Quellen verantwortlich zeichnen. Beim US Wahlkampf hat man mit der Sperre einer Handvoll Accounts – fast 90% aller Wahl-Falschnachrichten verhindern können. Da Deep-fake technisch aufwendiger ist, ist die Quellenzahl nochmal deutlich geringer. Man sollte diese Troll-Fabriken aussperren und nicht immer gleich eine Technologie-Debatte lostreten. Das Problem sind die (wenigen) Trolle, die große (staatliche) Mittel zur Verfügung haben. 

Gibt es dazu schon bestehende Lösungen oder sind diese noch in der Entwicklungsphase? 

Clemens Wasner: Auf technologischer Seite wird auf jeden Fall intensiv an Lösungen gearbeitet. So haben die großen IT Konzerne bereits vor drei Jahren damit begonnen, sehr große Datensätze an Deepfakes freizugeben, damit Forscher:innen und Startups Algorithmen für die Erkennung dieser entwickeln können. Die jetzige Deepfake-Welle wird zu einer Beschleunigung dieser Bemühungen führen und es ist nur noch eine Frage der Zeit, bis gängige Videokonferenz-Tools Deepfake-Detektoren anbieten werden.

Mic Hirschbrich: Wie beim Spam-Schutz, werden wir Deepfake-Filter selbstverständlich einsetzen. Jedoch wird es natürlich zu größeren Vorfällen kommen, vor allem in den ersten Phasen. Die Frage ist da viel mehr, wie bringen wir diese Filter-Erkennungs-Technologie an verschiedene Nutzer:innen in der Politik, den Medien und der Wirtschaft.  Der Klitschko-Skandal hätte einfach durch saubere Protokolle verhindert werden können. So etwas sollte nicht passieren. 

Deine ungelesenen Artikel:
15.11.2024

Somareality: Wiener DeepTech-Startup vermeldet 2,6 Mio. Euro schwere Seed-Runde

Das DeepTech-Startup Somareality holt sich weiteres Kapital: Im Jahr 2024 hat es nun eine Summe von 2,6 Millionen Euro aufgestellt.
/artikel/somareality-millioneninvestment
15.11.2024

Somareality: Wiener DeepTech-Startup vermeldet 2,6 Mio. Euro schwere Seed-Runde

Das DeepTech-Startup Somareality holt sich weiteres Kapital: Im Jahr 2024 hat es nun eine Summe von 2,6 Millionen Euro aufgestellt.
/artikel/somareality-millioneninvestment
Somareality
(c) Somareality - Das Somareality-Team.

Vor rund einem halben Jahr vermeldete das Wiener DeepTech-Startup Somareality den Erhalt eines 1,5 Mio. Euro schweren Investments (brutkasten berichtete). Nun kommuniziert das Startup eine Aufstockung des Kapitals: In einem LinkedIn-Posting gab das Unternehmen den Abschluss einer “überzeichneten Seed-Runde” in Höhe von 2,6 Millionen Euro bekannt. In dem Posting nennt das Unternehmen unter anderem Birdhouse Ventures, Gateway Ventures, Startup Wise Guys, FFG und aws als Unterstützer.

“Ein finales Closing für unsere 2024-Runde”

Laut Co-CEO Julia Kern handelt es sich bei den genannten Stakeholdern um “wesentliche Partner” in der nun geschlossenen Runde. Auf brutkasten-Nachfrage bestätigt Co-CEO Kern außerdem, dass es sich bei der nun kommunizierten Runde um “ein finales Closing für unsere 2024-Runde” handelt. Die in diesem Jahr gesammelte Summe soll “direkt auf unsere Kommerzialisierung und den Ausbau des Produktportfolios für nächstes Jahr” einzahlen, so Co-CEO Kern.

Somareality wurde 2019 in Wien gegründet und entwickelt Eye-Tracking-basierte Biomarker, um damit Rückschlüsse auf den kognitiven Zustand einer Person treffen zu können. Mit dem ersten Biomarker erreichte das Unternehmen einen Umsatz von knapp einer Million Euro. Bis 2026 sollen weitere Folgen, die insgesamt ein volles non-invasives kognitives Monitoring ermöglichen sollen.

Im Vorjahr hatte das Unternehmen einen strategischen Pivot vorgenommen: Das Projektgeschäft wich einem B2B-SaaS-Modell und die bestehende Technologie wurde fit gemacht für Hardware-Umgebungen außerhalb von Virtual Reality.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos