30.06.2022

Experten klären auf: So erkennt man Deepfake-Videos

Nach einer Serie von Fake-Videocalls mit dem angeblichen Bürgermeister von Kiew - Vitali Klitschko - sind nun viele europäische Behörden beunruhigt über weitere Troll-Anrufe. Die AI-Experten Clemens Wasner und Mic Hirschbrich klären auf, woran Deepfake-Videos zu erkennen sind.
/artikel/so-kann-man-deepfake-videos-erkennen
AI-Experten Mic Hirschbrich und Clemens Wasner. (c) Mic Hirschbrich und enliteAI
AI-Experten Mic Hirschbrich und Clemens Wasner. (c) Mic Hirschbrich und enliteAI

Von Madrid über Wien bis hin zu Warschau, mehrere europäische Stadtchefs wurden letzte Woche Opfer von Fake-Videocalls mit dem angeblichen Amtskollegen, Vitali Klitschko. Darunter auch der Bürgermeister von Wien, Michael Ludwig. Während anfangs noch Gerüchte um den potentiellen Einsatz von Deepfake in den Medien kursierten, bekannte sich mittlerweile ein russisches Komiker-Duo, Wladimir Kusnezow und Alexej Stoljarow, das unter dem Künstlernamen “Wowan und Lexus” arbeitet, zu den Fake-Anrufen. Gegenüber dem ARD-Politikmagazin Kontraste sagten die Komiker, dass keine künstliche Intelligenz eingesetzt wurde. “Ich will nicht verraten, wie wir es angestellt haben, aber es war leicht”, so Wowan und Lexus im Telefonat mit Kontraste.

Auch wenn die Fake-Anrufe mit Michael Ludwig, Franziska Giffey und Co sich nicht als Deepfake erwiesen haben, wächst nun das Misstrauen der Behörden gegenüber Videocalls. Das Thema sowie das Risiko rund um Deepfake-Anrufe bleibt also dennoch relevant.  Die brutkasten-Redaktion hat sich bei zwei AI- und Digitalisierungs-Experten – Clemens Wasner (enliteAI-CEO und Co-Founder von AI Austria) und Mic Hirschbrich (Co-Founder von Apollo.ai) – erkundigt, wie man sich vor Deepfake-Anrufen schützen und diese identifizieren kann. 

In den letzten Tagen füllten viele Gerüchte rund um Deepfakes und künstlicher Intelligenz das Internet. Es wurde viel spekuliert, ohne über ausreichendes Grundwissen über das Thema zu verfügen. Was bedeutet Deepfake und was ist Deepfake Live tatsächlich? 

Clemens Wasner: Als “Deepfake“ wird die zugrundeliegende Technologie bezeichnet, bei der ein künstliches neuronales Netz (Deep Neural Network) zunächst mit Bilddaten der nachzuahmenden Person trainiert wird. Wer sich dazu genauer einlesen will, kann nach dem Begriff “Generative Adversarial Network (GANs)” suchen. Bei “Deepface Live” handelt es sich um ein als Open Source verfügbares Tool, mit dem Face Swappings – mit vorgefertigten synthetischen Gesichtern – durchgeführt werden können. Darüber hinaus ist es auch möglich, eigene Gesichter – im aktuellen Beispiel das Gesicht von Vitali Klitschko – zu trainieren. Um dies aber in ausreichend hoher Qualität hinzubekommen, ist ein großer Aufwand zu betreiben – die Anleitung hierfür hat 100 Schritte.

Wie gut sind diese Technologien? 

Mic Hirschbrich: Technisch hat Deepfake in der Vergangenheit immer dann besonders gut funktioniert, wenn es Referenz-Doubles gab, die dem Original sehr ähnlich sahen. Ich erinnere mich an den berühmten Tom Cruise Deep Fake. Der Schauspieler hat schon ohne KI-Einsatz eine sehr große Ähnlichkeit.  Dennoch ist das live besonders anspruchsvoll. Bei “Live Deep Fake” von bekannten Prominenten und so langer Interaktion waren bislang Fehler meist sichtbar und erkennbar. 

Ist es möglich, Deepfake in Gesprächen zu erkennen? Wenn ja, wie ?

Clemens Wasner: Da wäre zunächst die Qualität des Fake-Gesichtes zu beachten. Oft verfügen Deepfake-Gesichter über weniger Details als das Ausgangsbild – wie weniger Falten oder Gesichtsbehaarung. Diese sind im Livestream natürlich nur sehr schwer zu erkennen, da man parallel dazu keinen Vergleich mit dem Original durchführen kann. Was aber sehr wohl auffallen kann, sind unterschiedliche Pigmentierungen von Gesicht und Körper, wie es bei den ersten Zelensky-Fakes im Februar der Fall war. 

Ein weiteres potentielles Erkennungsmerkmal sind der Mund und die Mundbewegung während des Sprechens. Deepfakes wirken hier oft unnatürlich, da sich die Lippen entweder zu wenig bewegen – ähnlich den Lippen nachdem man eine Spritze beim Zahnarzt bekommen hat – oder sich zu sehr biegen. Neben der eigentlichen Qualität des Gesichtes gibt es aber auch noch Videostream-spezifische Merkmale wie Bildrate, Auflösung und Beleuchtung, die darüber Aufschluss geben können, ob am Bild manipuliert wurde.

Wie kann ich mich vor Deepfake schützen?

Clemens Wasner: Als Gesellschaft müssen wir zunächst bei unserer Medienkompetenz ansetzen, um die Sensibilisierung gegenüber Falschinformationen zu erhöhen. Darüber hinaus werden Medien Anstrengungen unternehmen müssen, um sicherzugehen, dass sie keine Deepfakes verbreiten. Als wahrscheinlichstes Szenario erscheint mir dabei, dass sie entlang der Redaktionsarbeit Tools verwenden können (ähnlich dem MS Tool), welche Fakten- und Deepfake-Checks durchführen. Um hier immer am Laufenden zu bleiben, wäre wie im Cyber-Security-Bereich ein Zertifizierungssystem denkbar, dass den Stand der verwendeten Software sicherstellt und am Laufenden hält.

Mic Hirschbrich: Mit Medienkompetenz, Filtern und ordentlichen Protokollen. Bei der weitaus größeren Plage – den Fake-News – haben wir gelernt, dass für die große Zahl der Falschnachrichten sich nur sehr wenige Quellen verantwortlich zeichnen. Beim US Wahlkampf hat man mit der Sperre einer Handvoll Accounts – fast 90% aller Wahl-Falschnachrichten verhindern können. Da Deep-fake technisch aufwendiger ist, ist die Quellenzahl nochmal deutlich geringer. Man sollte diese Troll-Fabriken aussperren und nicht immer gleich eine Technologie-Debatte lostreten. Das Problem sind die (wenigen) Trolle, die große (staatliche) Mittel zur Verfügung haben. 

Gibt es dazu schon bestehende Lösungen oder sind diese noch in der Entwicklungsphase? 

Clemens Wasner: Auf technologischer Seite wird auf jeden Fall intensiv an Lösungen gearbeitet. So haben die großen IT Konzerne bereits vor drei Jahren damit begonnen, sehr große Datensätze an Deepfakes freizugeben, damit Forscher:innen und Startups Algorithmen für die Erkennung dieser entwickeln können. Die jetzige Deepfake-Welle wird zu einer Beschleunigung dieser Bemühungen führen und es ist nur noch eine Frage der Zeit, bis gängige Videokonferenz-Tools Deepfake-Detektoren anbieten werden.

Mic Hirschbrich: Wie beim Spam-Schutz, werden wir Deepfake-Filter selbstverständlich einsetzen. Jedoch wird es natürlich zu größeren Vorfällen kommen, vor allem in den ersten Phasen. Die Frage ist da viel mehr, wie bringen wir diese Filter-Erkennungs-Technologie an verschiedene Nutzer:innen in der Politik, den Medien und der Wirtschaft.  Der Klitschko-Skandal hätte einfach durch saubere Protokolle verhindert werden können. So etwas sollte nicht passieren. 

Deine ungelesenen Artikel:
vor 13 Stunden

Tset: Wiener Scaleup holt sich 12,7 Mio. Euro Investment

Die Software von Tset hilft Industrie-Kunden bei Produktkosten- und CO2-Emissionsberechnungen. Die aktuelle Series-A-Kapitalrunde ist schon das zweite Investment in dieser Höhe.
/artikel/tset-wiener-scaleup-holt-sich-127-mio-euro-investment
vor 13 Stunden

Tset: Wiener Scaleup holt sich 12,7 Mio. Euro Investment

Die Software von Tset hilft Industrie-Kunden bei Produktkosten- und CO2-Emissionsberechnungen. Die aktuelle Series-A-Kapitalrunde ist schon das zweite Investment in dieser Höhe.
/artikel/tset-wiener-scaleup-holt-sich-127-mio-euro-investment
Tset
Das in Wien und Kuchl ansässige Scaleup wurde 2018 von Andreas Tsetinis und Sasan Hashemi gegründet | (c) tset

Kunden wie die BMW Group (brutkasten berichtete), Lego oder Thyssenkrupp setzen auf die SaaS-Software des Wiener Scaleups Tset. Diese verspricht sofortige Einblicke, wie Designänderungen die Produktkosten sowie den CO₂-Fußabdruck und soll frühzeitig Optimierungspotenziale aufzeigen. Die Lösung könne von der frühen Entwicklungsphase bis zur Serienproduktion eingesetzt werden, so das Scaleup. Das Ergebnis für den Kunden sei eine höhere Marge sowie Transparenz hinsichtlich der Emissionen.

Automobilbranche besonders spannend für Tset

Zu einem besonders spannenden Markt innerhalb des großen Industrie-Bereichs wurde für Tset die Automoilbranche. Neben der oben erwähnten BMW Group ist etwa auch der milliardenschwere deutsche Auto-Zuliefer-Riese Brose nicht nur Kunde, sondern über seinen VC-Arm auch Bestandsinvestor beim 2018 von Andreas Tsetinis und Sasan Hashemi gegründeten Wiener Scaleup. Der Konzern war 2022 bei einer 13 Millionen Euro schweren Kapitalrunde (erst im Frühling 2023 kommuniziert) – brutkasten berichtete – als strategischer Investor eingestiegen.

Auf 13 Millionen Euro 2022 folgen 12,7 Millionen Euro 2024

Nun holt sich Tset in seiner Series A-Finanzierungsrunde mit 12,7 Millionen Euro einen annähernd gleich hohen Betrag. Das Kapital kommt neben Bestandsinvestor Brose Ventures auch vom Schweizer VC Carbon Removal Partners und der deutschen Ingenics Holding. Letztere soll auch Consulting-Leistungen im Bereich Cost Engineering und Total Cost Ansatz, inklusive CO₂-Fußabdruck der hergestellten Produkte, einbringen, heißt es vom Scaleup. Das Kapital soll in die Weiterentwicklung der Software, den Ausbau des Partner-Ökosystems und ins strategische Wachstum fließen.

Tset-Gründer: “Auf Wachstum und Expansion in neue Regionen und Branchen nun optimal vorbereitet”

Die Gründer Hashemi und Tsetinis kommentieren in einer Aussendung: “Durch die Regulierung der CO₂-Emissionen und den immer intensiveren Wettbewerb in der Automobilindustrie wächst der Bedarf nach unserer Software. Auf dieses Wachstum und die Expansion in neue Regionen und Branchen sind wir nun optimal vorbereitet. Nach unseren Erfolgen im europäischen Raum arbeiten wir jetzt verstärkt auch am Markteintritt in Nordamerika und Asien.”

Expansion in weitere Branchen geplant

Dazu soll der Vertrieb kontinuierlich ausgebaut und die Expansion in andere Branchen wie die Maschinenbau- oder die Haushaltsgeräteindustrie sowie den Industriebau verstärkt werden. Aktuell beschäftigt Tset an seinen zwei Standorten in Wien und Kuchl mehr als 100 Entwickler:innen und Industrieexpert:innen.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Experten klären auf: So erkennt man Deepfake-Videos