Gastbeitrag

Deepfakes: Wie neuronale Netzwerke gefälschte Videos entlarven können

Auch Mark Zuckerbergs Gesicht wurde in einem Deepfake-Video verwendet.
Auch Mark Zuckerbergs Gesicht wurde in einem Deepfake-Video verwendet.

Deepfakes, Fake News, Dumbfakes – wir Menschen haben eine auffällig starke Neigung uns gegenseitig Unwahrheiten zu erzählen. Und das ist gut so. Denn ob du es glaubst oder nicht: Aus psychologischer und kommunikationswissenschaftlicher Sicht halten Lügen Gemeinschaften zusammen. Das haben zahlreiche Studien belegt. Je stärker das soziale Gefüge, desto eher neigen wir dazu mit Hilfe von Unehrlichkeiten die soziale Rangordnung zu definieren. Das geht von einfachen Komplimenten zur neuen Jacke bis hin zu frei Erfundenen Lebensanekdoten.

Unangenehme Fakten werden weggelassen, um Konflikte zu vermeiden. Die nordamerikanischen Psychologinnen Victoria Talwar und Angela Crossman behaupten sogar, dass das Lügen eine evolutionäre Überlebensstrategie sei.

Zum Problem wird die Lügerei dann, wenn Fakten weggelassen werden, um andere Menschen bewusst zu manipulieren. Und genau das passiert mit Fortschreiten der Technik immer häufiger. Mit zunehmender Globalisierung unserer Kommunikation nehmen die „Fakes“ zu. Zuerst waren es Kommentatoren-Gangs, die Facebook im Auftrag von Parteien oder Unternehmen unsicher gemacht haben, mittlerweile sind es Bots und künstliche Intelligenzen. Die Menschheit besteht aus Hunderttausenden (wenn nicht Millionen) verschiedener sozialer Gruppen – und jede davon beansprucht ihre eigene Wahrheit. Dank der sozialen Medien können sie diese auf der Weltbühne beanstanden. Diesen Hintergrund muss man verstehen, wenn man sich mit dem Thema Fakes auseinandersetzt. Besonders wenn man Fälschungen entlarven möchte.

Alles Lüge, oder was? Die Welt der Deepfakes

Mittlerweile haben Fälschungen eine sehr hohe Qualität erreicht. Sie können nicht mehr nur mit menschlichem Verstand enttarnt werden. Willkommen in der Welt der Deepfakes! Deepfakes, das sind von künstlichen Intelligenzen erzeugte Videos und Bilder. Aus vorhandenem Bildmaterial (etwa aus der Google Bildsuche) werden künstliche, aber real wirkende Aufnahmen erzeugt. Heraus kommt beispielsweise ein Obama der Trump beschimpft oder Mark Zuckerberg, der  das Geheimnis von Facebook in einer Videobotschaft offenbart. Beides ist nie passiert und dennoch gibt es davon Videos, eben Deepfakes.

https://www.instagram.com/p/BypkGIvFfGZ/

Wie entstehen Deepfakes?

Eine Software (künstliche Intelligenz) wird mit Daten gefüttert, also in diesem Fall mit Bild- und Videomaterial. Je mehr Daten zur Verfügung stehen, desto besser wird der Fake anschließend. Laut Forschern der University of Albany sind nur 500 Bilder oder zehn Sekunden Videomaterial einer Person notwendig, um einen realistischen Fake zu produzieren. Also kann man theoretisch von jedem Menschen, der auf sozialen Netzwerken ein bisschen aktiver ist einen Deepfake produzieren.

Danach werden auf Basis dieser Daten die Person, das Gesicht, die Bewegungen nachgebildet. Das ist auch der Schwachpunkt von Deepfakes. Sie arbeiten nur so gut, wie die Qualität der ihnen zur Verfügung stehenden Daten ist. Gute Deepfakes brauchen deshalb immer noch Menschen, die sich um die Feinheiten kümmern. Ohne Imitatoren, Videoexperten und Make-up-Artists kann selbst die beste künstliche Intelligenz nur mäßige Fälschungen produzieren. Allerdings steht Software wie die Applikation „Fake Apps“ jedem gratis zur Verfügung. Mit entsprechendem Know-how kann jeder ganz einfach Deepfakes in Umlauf bringen.

Angezogen und trotzdem nackt: Der Super-GAU „Deepnudes“

Bis Juni 2019 gab es eine Software namens „Deepnudes“, die aus normalen Aufnahmen von Frauen, Nacktfotos erstellen konnte. Sie ersetzte Kleidung mit virtuell erstellten nackten Frauenkörpern, die der Silhouette und Form der abgebildeten Person entsprachen. Als die Entwickler die Gefahr erkannten, die von ihrer Software ausging, nahmen sie sie offline. Dennoch waren zuvor bereits Tausende Nacktfotos von Frauen in Umlauf gebracht worden, die es in echt gar nicht geben konnte. Möglich wurde „Deepnudes“ durch eine Software mit dem Namen Pix2Pix https://phillipi.github.io/pix2pix/ (entwickelt an der UC in Berkley). Sie kann aus rudimentären Vorgaben, etwa einer Katzenskizze, real wirkende Bilder erstellen. Dazu füllt sie die Schemen mit Bildmaterial aus ihrer Datenbank.

Anti-Deepfake-Unit in den USA

Solche Vorfälle zeigen, dass Deepfakes jeden treffen können. Sie sind – falsch eingesetzt – für uns alle eine ernste Bedrohung. Die amerikanische Regierung hat deshalb bereits 2016 eine eigene Research-Einheit damit beauftragt Lösungen zu finden: Im Auftrag dieser Defense Advanced Research Projects Agency (DARPA) hat das Forschungsteam der University of Albany an einer Software gearbeitet, die Deepfakes erkennt. Das übergeordnete Ziel von DARPA ist es Filter zu installieren, die anhand dieser Software Deepfakes aus dem Internet automatisch entfernen können.

Multimedia-Forensik: Die Deepfake-Forschung

Deepfakes fallen in den Bereich der Multimedia-Forensik, wo sie schon lange überwacht und erforscht werden. Die Forensiker haben Zugriff auf umfassende Datenbanken und spezielle Tools und Werkzeuge. Sie können nahezu jeden Fake entlarven. Dr. Stefan Meier ist IT-Forensiker und Cyber-Security-Experte und erklärt, wie das generell funktioniert: „Es werden die Bilder bzw. Videos analysiert, um Abweichungen zu finden. Bei gefälschten Videos kann man beispielsweise oft feststellen, dass die Personen nicht blinzeln, oder das Blinzeln unnatürlich wirkt. Dies liegt schlichtweg daran, dass viele der Methoden zur Erstellung dieser Videos als Ausgangsmaterial statische Bilder nutzen, bei denen die Augen entweder offen oder geschlossen sind.“

In der Fachsprache ist dann hier von „neuronalen Netzwerken“ die Rede, mit Hilfe derer diese Unregelmäßigkeiten erkannt werden. Udo Urban vom Deutschen Forschungszentrum für Künstliche Intelligenz: „Die Technologie beruht auf der Annahme, dass Bilder aus Deepfakes bereits früher in einem anderen Zusammenhang veröffentlicht wurden. Neuronale Netzwerke können nach ähnlichen Bildern suchen.“

Software sucht nach Indizien

Laienhaft ausgedrückt: Es funktioniert wie eine Reverse-Image-Suche, die jedermann mit einer Software wie der Google Image Suche durchführen kann. Die Profi-Software achtet außerdem auf unregelmäßige Kopfbewegungen und Mimiken. Oft sieht die Haut zu glatt aus oder Haaren fehlt die Struktur bzw. der Verlauf. Auch anhand der Zähne kann man Deepfakes erkennen. Diese sind oft zu einem Block zusammengeschweißt.

Zudem gibt es Software, die aus Videomaterial ableiten kann, welche Herzfrequenz die Person hat. Was mit dem menschlichen Auge nämlich nicht zu erkennen ist: Mit jedem Herzschlag verändert sich unsere Hautfarbe, da Blut durch unseren Körper gepumpt wird. Bei künstlich erstellten Personen fehlt dieses Merkmal naturgemäß. Aber auch Zusammenschnitte und kleine Manipulationen können so erkannt werden. Diese Software wurde bereits 2012 von einer Forschergruppe des renommierten MIT entwickelt und nennt sich Eulerian Video Magnification (EVM).

Nächste Stufe: Audio-Fälschungen

In Österreich beschäftigt sich (neben anderen) das Austrian Institute of Technology (AIT) mit Deepfakes. Federführend dabei Ross King. Er ist „Thematic Coordinator“ und leitet 21 Mitarbeiter des Data-Science-Forschungsfelds. Diese sind schon einen Schritt weiter und untersuchen, wie man Audio-Fälschungen enttarnen kann. „Über die letzten zwei Jahren war man bei Deepfakes sehr auf Video-Dateien konzentriert.  D.h. mit der technischen Fragestellung, wie man ein Gesicht mit einem anderen austauschen kann. Mittlerweile geht es schon darum, wie man Stimmen austauschen kann. Am AIT haben wir über die vergangenen fünf Jahre Expertise im Bereich Audio-Analyse aufgebaut. Auf Signalebene und Inhaltsebene, sowie in Natural Language Processing (NLP).“

Diese setzen die Profis im Kampf gegen Fake News ein. Eine kleine Entwarnung kann King geben: Derzeit sei noch keine Software in der Lage, authentische Sound-Fälschungen anzufertigen.

Gibt es Grund zur Beunruhigung?

“Ich denke, dass Deepfakes durchaus erhebliche Schäden verursachen können. Informationen werden heute ungeprüft auf diverse Internetplattformen gestellt und gerade Schlagzeilen verbreiten sich im Internet sehr rasant. Von daher ist die Gefahr, dass z.B. ein gefälschtes Video einen hohen Schaden an der Reputation einer Person anrichtet sehr real. Ähnlich wie bei der Verbreitung von Falschmeldungen vermute ich zudem, dass auch die Richtigstellung erheblich weniger Leute erreichen würde und der Schaden dadurch oftmals permanent wäre”, sagt IT-Forensiker Meier.

Auch King ist der Meinung, dass die einzige Möglichkeit, um Deepfakes Einhalt zu gebieten der Aufbau von Medienkompetenz ist: „Wir brauchen mehr Vertrauen in die Herausgeber von Information, vor allem die News-Services. Gleichzeitig müssen Bürgen besser informiert sein.“ User müssten verstehen, dass sie Augen und Ohren nicht mehr zu 100 Prozent vertrauen können und sollten Online-Inhalte skeptischer interpretieren. Das bedeutet natürlich: Eigenverantwortung. Sich nur mehr berieseln zu lassen ist nicht mehr. Durch die Digitalisierung hat jeder von uns eine Stimme bekommen – und die Möglichkeit die Aussagen dieser genau zu prüfen.

Denn noch gefährlicher als Deepfakes sind dann nur noch Dumbfakes. Darunter versteht man schlecht gemachte Fälschungen, die aber wegen der Unbedarftheit und Ahnungslosigkeit der User für echt befunden und verbreitet werden.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Podcast: Mit den smartesten Köpfen im Gespräch

Der Podcast von Trending Topics

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen