Gegen Fälschungen auf Facebook und Co. 20.07.2020, 06:22 Uhr

Social Media: Mit Frequenzanalysen Deep Fakes auf der Spur

Immer häufiger tauchen gefälschte Bilder in Online-Medien auf. Diese sogenannten Deep Fakes kann das menschliche Auge nicht von Originalen unterscheiden. Forscher aus Bochum überprüfen die Authentizität mit detaillierten Bildanalysen.

Deep Fake Schriftzug mit Cybergesicht

Wie man Deep Fakes erkennen kann, zeigen Ingenieure der Ruhr-Universität Bochum.

Foto: panthermedia.net/dkcreative

Der US-Wahlkampf läuft auf Hochtouren. Traditionell spielen Social Media eine große Rolle. Die Kontrahenten scheuen sich nicht, den Gegner zu diffamieren. Zu den möglichen Waffen gehören auch Deep Fakes, also professionell gefälschte Bilder. Das Gesicht einer Person wird in einem anderen Kontext verwendet, wobei sich solche Manipulationen mit bloßem Auge nicht erkennen lassen.

„Gerade in Zeiten von Fake News kann es ein Problem sein, wenn Nutzerinnen und Nutzer computergenerierte Motive und Originale nicht auseinanderhalten können“, sagt Thorsten Holz. Er ist Professor am Lehrstuhl für Systemsicherheit der Ruhr-Universität Bochum (RUB). Zusammen mit Kollegen des Lehrstuhls für Maschinelles Lernen und der Arbeitsgruppe für Kognitive Signalverarbeitung der RUB entwickelte Holz eine Möglichkeit, Fälschungen aufzuspüren. Das Team analysierte Bilder im Frequenzbereich und konnte Artefakte präzise nachweisen.

Details dazu hat das Team am 15. Juli 2020 auf der International Conference on Machine Learning (ICML), vorgestellt. Sie stellen auch den Code online frei zur Verfügung, damit weitere Forschergruppen hier anknüpfen können.

Was sind Deep Fakes?

Zum Hintergrund: Der Begriff „Deep Fake“ setzt sich aus den Begriffen „Deep Learning“ und „Fake“ zusammen. Inhalte authentischer Fotos oder Videos werden in andere digitale Medien eingefügt, sprich in völlig sachfremdem Kontext verwendet. Fälschungen dieser Art sind nicht neu, basierten anfangs aber auf klassischer Software zur Bearbeitung von Bildern und waren dementsprechend leicht zu erkennen.

Stellenangebote im Bereich IT/TK-Projektmanagement

IT/TK-Projektmanagement Jobs
CS CLEAN SOLUTIONS GmbH-Firmenlogo
Mitarbeiter für die Steuerungstechnik Software (m/w/d) CS CLEAN SOLUTIONS GmbH
Ismaning bei München Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
FlowChief GmbH-Firmenlogo
Techniker:in Automatisierung (SCADA) (m/w/d) FlowChief GmbH
Wendelstein Zum Job 
Wirtgen GmbH-Firmenlogo
Software-Ingenieur (m/w/d) Elektrotechnik im Bereich Steuerungssoftware für mobile Arbeitsmaschinen Wirtgen GmbH
Windhagen Zum Job 
Hochschule Osnabrück-Firmenlogo
Tandem-Professur Robotik, Data Science and AI, Digitalisierte Wertschöpfungsprozesse Hochschule Osnabrück
Osnabrück, Lingen Zum Job 
Hochschule für Technik und Wirtschaft Berlin-Firmenlogo
Professur (W2) | auf Lebenszeit Fachgebiet Rechnerarchitekturen und Rechnersysteme Hochschule für Technik und Wirtschaft Berlin
Energie und Wasser Potsdam GmbH-Firmenlogo
Geoinformatiker (m/w/d) / Vermessungsingenieur (m/w/d) als Projektleiter (m/w/d) GIS - Fachanwendungen Energie und Wasser Potsdam GmbH
Potsdam Zum Job 
Frankfurt University of Applied Sciences-Firmenlogo
Professur "Software Engineering - Moderne Verfahren" (w/m/d) Frankfurt University of Applied Sciences
Frankfurt am Main Zum Job 
Niedersächsische Landesbehörde für Straßenbau und Verkehr-Firmenlogo
BIM-Manager (m/w/d) für Bauprojekte Niedersächsische Landesbehörde für Straßenbau und Verkehr
Hannover Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Fachingenieur (w/m/d) BIM Die Autobahn GmbH des Bundes
Technische Hochschule Deggendorf-Firmenlogo
Forschungsprofessur oder Nachwuchsprofessur (m/w/d) Industrielle Robotik Technische Hochschule Deggendorf
Fresenius Kabi Deutschland GmbH-Firmenlogo
Projekt IT-Ingenieur (m/w/d) Fresenius Kabi Deutschland GmbH
Friedberg Zum Job 
Mercer Stendal GmbH-Firmenlogo
Betriebstechniker (m/w/d) Prozessleittechnik Mercer Stendal GmbH
Arneburg Zum Job 
Wirtgen GmbH-Firmenlogo
Project Manager Product Lifecycle Management (m/w/d) Wirtgen GmbH
Windhagen Zum Job 
Hochschule Osnabrück-Firmenlogo
Wissenschaftl. Mitarbeiter*in in der Talentakademie "Smart Factory & Products" Hochschule Osnabrück
Osnabrück Zum Job 
NORDEX GROUP-Firmenlogo
SCADA Projektingenieur (m/w/d) NORDEX GROUP
Hamburg, Rostock Zum Job 
Westfälische Hochschule-Firmenlogo
Professur Künstliche Intelligenz und Industrielle Automation (W2) Westfälische Hochschule
Gelsenkirchen Zum Job 
Hochschule für Technik und Wirtschaft Berlin-Firmenlogo
Professor (W2) | Permanent Computer Architecture and Computer Systems Hochschule für Technik und Wirtschaft Berlin
Frankfurt University of Applied Sciences-Firmenlogo
Professur "Vernetzte Eingebettete Systeme" (w/m/d) Frankfurt University of Applied Sciences
Frankfurt am Main Zum Job 

Bei Deep Fakes hingegen nutzt man leistungsstarke Techniken des maschinellen Lernens und der künstlichen Intelligenz, um visuelle und akustische Inhalte mit einem hohen Täuschungspotenzial zu manipulieren oder komplett neu zu erschaffen. Dazu zählen Computermodelle, sogenannten Generative Adversarial Networks, kurz GANs. Sie arbeiten mit zwei verschiedenen Algorithmen. Der erste Algorithmus analysiert Bilder, die ein User in Deep Fakes umwandeln möchte. Anhand der Ergebnisse werden neue, zufällige Bilder erschaffen. Diese testet dann ein weiterer Algorithmus auf deren Glaubwürdigkeit. Findet er Hinweise auf Fakes, kommt wieder Algorithmus eins ins Spiel – und zwar so lange, bis Programm zwei keine Fälschung mehr erkennt. Anders als bei der klassischen Bildbearbeitung erhält man Ergebnisse, die ohne Hilfsmittel wie echt wirken. Die Ergebnisse sind aufgrund leistungsfähiger Rechner auch immer authentischer geworden.

Analysen zeigen, dass Deep Fakes oft verwendet werden, um das Gesicht einer Person mit einem generierten Gesicht einer anderen Person zu tauschen, sprich in falschem Kontext darzustellen. Deepfakes gehen weit über dieses „face-swapping“ hinaus. Beispielsweise werden Körperbewegungen oder Stimmen übertragen. Danach veröffentlichen User solche Inhalte oft in Social Media.

Woran erkennen Forscher Deep Fakes?

Die Bochumer Forscher suchten nach einem Weg, um Fälschungen zu entlarven. Als Quelle für Deep Fakes verwendeten sie die Website Whichfaceisrael. Dort können User sich selbst auf die Probe stellen, ob sie original und Fälschung auseinanderhalten.

Technisch gelang dies bisher nur mit aufwendigen statistischen Verfahren, was Zeit und Rechnerleistung kostet. Die interdisziplinäre Arbeitsgruppe wählte einen anderen Ansatz, indem sie die Bilder mit der Diskreten Kosinustransformation in den Frequenzbereich umwandelte. Dabei wird das generierte Bild als Summe vieler verschiedener Kosinus-Funktionen dargestellt. Authentische Bilder oder Einzelbilder aus Videos bestehen größtenteils aus niederfrequenten Funktionen.

Wendeten Forscher ihre Diskrete Kosinustransformation jedoch auf Deep Fakes an, zeigten sich Unterschiede. Vor allem fand man Artefakte im hochfrequenten Bereich. Wie die Ergebnisse aussehen, zeigt sich am Vergleich eines Originalfotos (links) und eines Bildes, das über Deep-Fake-Algorithmen erstellt wurde (rechts). Die linke obere Ecke steht nach der Analyse für niederfrequente, sprich authentische Bildbereiche. Sie ist in beiden Aufnahmen zu sehen. Das computergenerierten Fotos (rechts) enthält zusätzlich eine Gitterstruktur im hochfrequenten Bereich. Dieses Artefakt entlarvt die Aufnahme als Deep Fake.

Originalbild (links) und Deep Fake (rechts) nach der Analyse.<br srcset=Foto: RUB, Lehrstuhl für Systemsicherheit" width="768" height="376">

Originalbild (links) und Deep Fake (rechts) nach der Analyse.

Foto: RUB, Lehrstuhl für Systemsicherheit

Gelten die Ergebnisse für alle Deep Fakes? 

Anschließend ging das Team der Frage nach, inwieweit sich Ergebnisse auf andere Algorithmen, welche ebenfalls Deep Fakes erzeugen, übertragen lassen. Es gibt nicht nur Generative Adversarial Networks, um Fälschungen zu erzeugen.

„Unsere Experimente haben ergeben, dass diese Artefakte nicht nur bei GANs auftreten, sondern dass es sich um ein strukturelles Problem aller Deep-Learning-Algorithmen handelt“, erklärt Joel Frank von der RUB.

„Wir gehen davon aus, dass man anhand der in unserer Studie beschriebenen Artefakte immer erkennt, ob es sich um ein Deep-Fake-Bild handelt, das mit maschinellem Lernen erstellt wurde.“ Die Frequenzanalyse sei „ein effektiver Weg, computergenerierte Bilder automatisiert zu erkennen“.

Mehr zum Thema IT und Sicherheit:

Ein Beitrag von:

  • Michael van den Heuvel

    Michael van den Heuvel hat Chemie studiert. Unter anderem arbeitet er für Medscape, DocCheck, für die Universität München und für pharmazeutische Fachmagazine. Seit 2017 ist er selbstständiger Journalist und Gesellschafter von Content Qualitäten. Seine Themen: Chemie/physikalische Chemie, Energie, Umwelt, KI, Medizin/Medizintechnik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.