Gegen Fälschungen auf Facebook und Co. 20.07.2020, 06:22 Uhr

Social Media: Mit Frequenzanalysen Deep Fakes auf der Spur

Immer häufiger tauchen gefälschte Bilder in Online-Medien auf. Diese sogenannten Deep Fakes kann das menschliche Auge nicht von Originalen unterscheiden. Forscher aus Bochum überprüfen die Authentizität mit detaillierten Bildanalysen.

Deep Fake Schriftzug mit Cybergesicht

Wie man Deep Fakes erkennen kann, zeigen Ingenieure der Ruhr-Universität Bochum.

Foto: panthermedia.net/dkcreative

Der US-Wahlkampf läuft auf Hochtouren. Traditionell spielen Social Media eine große Rolle. Die Kontrahenten scheuen sich nicht, den Gegner zu diffamieren. Zu den möglichen Waffen gehören auch Deep Fakes, also professionell gefälschte Bilder. Das Gesicht einer Person wird in einem anderen Kontext verwendet, wobei sich solche Manipulationen mit bloßem Auge nicht erkennen lassen.

„Gerade in Zeiten von Fake News kann es ein Problem sein, wenn Nutzerinnen und Nutzer computergenerierte Motive und Originale nicht auseinanderhalten können“, sagt Thorsten Holz. Er ist Professor am Lehrstuhl für Systemsicherheit der Ruhr-Universität Bochum (RUB). Zusammen mit Kollegen des Lehrstuhls für Maschinelles Lernen und der Arbeitsgruppe für Kognitive Signalverarbeitung der RUB entwickelte Holz eine Möglichkeit, Fälschungen aufzuspüren. Das Team analysierte Bilder im Frequenzbereich und konnte Artefakte präzise nachweisen.

Details dazu hat das Team am 15. Juli 2020 auf der International Conference on Machine Learning (ICML), vorgestellt. Sie stellen auch den Code online frei zur Verfügung, damit weitere Forschergruppen hier anknüpfen können.

Was sind Deep Fakes?

Zum Hintergrund: Der Begriff „Deep Fake“ setzt sich aus den Begriffen „Deep Learning“ und „Fake“ zusammen. Inhalte authentischer Fotos oder Videos werden in andere digitale Medien eingefügt, sprich in völlig sachfremdem Kontext verwendet. Fälschungen dieser Art sind nicht neu, basierten anfangs aber auf klassischer Software zur Bearbeitung von Bildern und waren dementsprechend leicht zu erkennen.

Stellenangebote im Bereich IT/TK-Projektmanagement

IT/TK-Projektmanagement Jobs
WIRTGEN GmbH-Firmenlogo
System- und Softwarearchitekt (m/w/d) - mobile Arbeitsmaschinen WIRTGEN GmbH
Windhagen (Raum Köln/Bonn) Zum Job 
WIRTGEN GmbH-Firmenlogo
Embedded Anwendungs-Softwareentwickler (m/w/d) - mobile Arbeitsmaschinen WIRTGEN GmbH
Windhagen (Raum Köln/Bonn) Zum Job 
B. Braun Melsungen AG-Firmenlogo
Global Lead (w/m/d) Operational Technology (OT) B. Braun Melsungen AG
Melsungen Zum Job 
WIRTGEN GmbH-Firmenlogo
Duales Studium Software Engineering - Bachelor of Engineering (m/w/d) WIRTGEN GmbH
Windhagen, Remagen Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur Vermessung (m/w/d) Die Autobahn GmbH des Bundes
Montabaur Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Lösungsentwickler (w/m/d) im Digitallabor Geoinformatik Die Autobahn GmbH des Bundes
VIAVI-Firmenlogo
Senior / Software Engineer (C++, Python & Cloud) (m/w/d) VIAVI
Eningen Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Teamleitung (w/m/d) BIM-Management Die Autobahn GmbH des Bundes
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Stadt Worms-Firmenlogo
Projektleiter (m/w/d) CAFM Stadt Worms
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur (w/m/d) C-ITS Entwicklung Die Autobahn GmbH des Bundes
Frankfurt am Main Zum Job 
Recogizer-Firmenlogo
Projektingenieur (m/w/d) KI-gestützte CO2-Reduktion Recogizer
Recogizer-Firmenlogo
Projektingenieur (m/w/d) KI-gestützte CO2-Reduktion Recogizer
HAWK Hochschule Hildesheim/Holzminden/Göttingen-Firmenlogo
Laboringenieur*in für das Digitallabor HAWK Hochschule Hildesheim/Holzminden/Göttingen
Holzminden Zum Job 
Tagueri AG-Firmenlogo
Consultant OTA - Connected Cars (m/w/d)* Tagueri AG
Stuttgart Zum Job 
CS CLEAN SOLUTIONS GmbH-Firmenlogo
Mitarbeiter für die Steuerungstechnik Software (m/w/d) CS CLEAN SOLUTIONS GmbH
Ismaning bei München Zum Job 
Hochschule für Technik und Wirtschaft Berlin-Firmenlogo
Professur (W2) | auf Lebenszeit Fachgebiet Rechnerarchitekturen und Rechnersysteme Hochschule für Technik und Wirtschaft Berlin
Regierungspräsidium Freiburg-Firmenlogo
Manager für Building Information Modeling (BIM) (w/m/d) Bauingenieurwesen, Bauinformatik, Vermessungswesen, Geodäsie, Geoinformatik, Geomatik Regierungspräsidium Freiburg
Freiburg Zum Job 
HAWK Hochschule für angewandte Wissenschaft und Kunst-Firmenlogo
Transfermanager*in HAWK Hochschule für angewandte Wissenschaft und Kunst
Hildesheim Zum Job 
Hochschule für Technik und Wirtschaft Berlin-Firmenlogo
Professor (W2) | Permanent Computer Architecture and Computer Systems Hochschule für Technik und Wirtschaft Berlin

Bei Deep Fakes hingegen nutzt man leistungsstarke Techniken des maschinellen Lernens und der künstlichen Intelligenz, um visuelle und akustische Inhalte mit einem hohen Täuschungspotenzial zu manipulieren oder komplett neu zu erschaffen. Dazu zählen Computermodelle, sogenannten Generative Adversarial Networks, kurz GANs. Sie arbeiten mit zwei verschiedenen Algorithmen. Der erste Algorithmus analysiert Bilder, die ein User in Deep Fakes umwandeln möchte. Anhand der Ergebnisse werden neue, zufällige Bilder erschaffen. Diese testet dann ein weiterer Algorithmus auf deren Glaubwürdigkeit. Findet er Hinweise auf Fakes, kommt wieder Algorithmus eins ins Spiel – und zwar so lange, bis Programm zwei keine Fälschung mehr erkennt. Anders als bei der klassischen Bildbearbeitung erhält man Ergebnisse, die ohne Hilfsmittel wie echt wirken. Die Ergebnisse sind aufgrund leistungsfähiger Rechner auch immer authentischer geworden.

Analysen zeigen, dass Deep Fakes oft verwendet werden, um das Gesicht einer Person mit einem generierten Gesicht einer anderen Person zu tauschen, sprich in falschem Kontext darzustellen. Deepfakes gehen weit über dieses „face-swapping“ hinaus. Beispielsweise werden Körperbewegungen oder Stimmen übertragen. Danach veröffentlichen User solche Inhalte oft in Social Media.

Woran erkennen Forscher Deep Fakes?

Die Bochumer Forscher suchten nach einem Weg, um Fälschungen zu entlarven. Als Quelle für Deep Fakes verwendeten sie die Website Whichfaceisrael. Dort können User sich selbst auf die Probe stellen, ob sie original und Fälschung auseinanderhalten.

Technisch gelang dies bisher nur mit aufwendigen statistischen Verfahren, was Zeit und Rechnerleistung kostet. Die interdisziplinäre Arbeitsgruppe wählte einen anderen Ansatz, indem sie die Bilder mit der Diskreten Kosinustransformation in den Frequenzbereich umwandelte. Dabei wird das generierte Bild als Summe vieler verschiedener Kosinus-Funktionen dargestellt. Authentische Bilder oder Einzelbilder aus Videos bestehen größtenteils aus niederfrequenten Funktionen.

Wendeten Forscher ihre Diskrete Kosinustransformation jedoch auf Deep Fakes an, zeigten sich Unterschiede. Vor allem fand man Artefakte im hochfrequenten Bereich. Wie die Ergebnisse aussehen, zeigt sich am Vergleich eines Originalfotos (links) und eines Bildes, das über Deep-Fake-Algorithmen erstellt wurde (rechts). Die linke obere Ecke steht nach der Analyse für niederfrequente, sprich authentische Bildbereiche. Sie ist in beiden Aufnahmen zu sehen. Das computergenerierten Fotos (rechts) enthält zusätzlich eine Gitterstruktur im hochfrequenten Bereich. Dieses Artefakt entlarvt die Aufnahme als Deep Fake.

Originalbild (links) und Deep Fake (rechts) nach der Analyse.<br srcset=Foto: RUB, Lehrstuhl für Systemsicherheit" width="768" height="376">

Originalbild (links) und Deep Fake (rechts) nach der Analyse.

Foto: RUB, Lehrstuhl für Systemsicherheit

Gelten die Ergebnisse für alle Deep Fakes? 

Anschließend ging das Team der Frage nach, inwieweit sich Ergebnisse auf andere Algorithmen, welche ebenfalls Deep Fakes erzeugen, übertragen lassen. Es gibt nicht nur Generative Adversarial Networks, um Fälschungen zu erzeugen.

„Unsere Experimente haben ergeben, dass diese Artefakte nicht nur bei GANs auftreten, sondern dass es sich um ein strukturelles Problem aller Deep-Learning-Algorithmen handelt“, erklärt Joel Frank von der RUB.

„Wir gehen davon aus, dass man anhand der in unserer Studie beschriebenen Artefakte immer erkennt, ob es sich um ein Deep-Fake-Bild handelt, das mit maschinellem Lernen erstellt wurde.“ Die Frequenzanalyse sei „ein effektiver Weg, computergenerierte Bilder automatisiert zu erkennen“.

Mehr zum Thema IT und Sicherheit:

Ein Beitrag von:

  • Michael van den Heuvel

    Michael van den Heuvel hat Chemie studiert. Unter anderem arbeitet er für Medscape, DocCheck, für die Universität München und für pharmazeutische Fachmagazine. Seit 2017 ist er selbstständiger Journalist und Gesellschafter von Content Qualitäten. Seine Themen: Chemie/physikalische Chemie, Energie, Umwelt, KI, Medizin/Medizintechnik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.