Gefährliche künstliche Intelligenz 18.06.2024, 13:10 Uhr

Wie Deepfakes funktionieren und wie wir uns schützen können

Wahrheit oder Lüge: Deepfakes werden immer besser. Doch wie kann ich sie erkennen und wie kann ich mich schützen? Wir beantworten die wichtigsten Fragen rund um das Thema Deepfakes.

Deepfakes

Dank immer besserer Künstlichen Intelligenz werden gefälschte Video- und Audiodateien immer ausgefeilter. Wie gefährlich ist solch ein Deepfake?

Foto: Panthermedia.net/Momius

Chance oder Risiko? In vielen Fällen bewegt sich Deepfake eher auf der Schattenseite, denn damit lassen sich Videos, Bilder oder Stimmen erzeugen, die vom Original kaum zu unterscheiden sind. Damit lässt sich einiges anstellen, was wirklich kriminell ist. Insbesondere bekannte Persönlichkeiten wie Taylor Swift oder auch Politiker müssen vermehrt mit Deepfakes leben. Womit wir bei der Frage wären: Wie gefährlich ist Deepfake? Wir haben uns angeschaut, was mit künstlicher Intelligenz heute schon alles möglich ist und welche Gefahren lauern. Nicht zuletzt geht es aber auch darum, ob wir uns vor einem Deepfake schützen können.

Top Stellenangebote

Zur Jobbörse
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur als Fachexperte Umweltschutz (w/m/d) Die Autobahn GmbH des Bundes
Hannover Zum Job 
Hasse & Wrede GmbH-Firmenlogo
Torsional Vibration Solution Architect (m/f/d) Hasse & Wrede GmbH
Berlin (Home-Office) Zum Job 
Hasse & Wrede GmbH-Firmenlogo
Entwicklungsingenieur für Torsionsschwingungslösungen (m/w/d) Hasse & Wrede GmbH
Berlin (Home-Office) Zum Job 
MicroNova AG-Firmenlogo
Industrial Engineer (m/w/d) Electrical Engineering / Elektrotechnik MicroNova AG
Vierkirchen Zum Job 
JOSEPH VÖGELE AG-Firmenlogo
Konstruktionsingenieur (m/w/d) Maschinenbau JOSEPH VÖGELE AG
Ludwigshafen am Rhein Zum Job 
NORMA Group Holding GmbH-Firmenlogo
Product Design Engineer (m/f/d) NORMA Group Holding GmbH
Maintal Zum Job 
DFS Deutsche Flugsicherung GmbH-Firmenlogo
Ingenieur (w/m/d) - Teilprojektleitung für Bauprojekte DFS Deutsche Flugsicherung GmbH
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur (w/m/d) konstruktiver Ingenieurbau Die Autobahn GmbH des Bundes
Bundeswehr-Firmenlogo
Ingenieurin / Ingenieur mit Bachelor (m/w/d) Bundeswehr
keine Angabe Zum Job 
SARPI Deutschland GmbH-Firmenlogo
Junior-Betriebsingenieur/Verfahrensingenieur Prozesstechnik (m/w/d) SARPI Deutschland GmbH
Cummins Deutschland GmbH-Firmenlogo
Application Engineer (m/w/d) Systems / Software für Nutzfahrzeuge Cummins Deutschland GmbH
Nürnberg Zum Job 
Jülich Forschungszentrum-Firmenlogo
Revisor mit Schwerpunkt Baurevision oder IT-Revision (w/m/d) Jülich Forschungszentrum
Jülich bei Köln Zum Job 
Bundeswehr-Firmenlogo
Ingenieurin / Ingenieur mit Bachelor (m/w/d) Bundeswehr
keine Angabe Zum Job 
MKH Greenergy Cert GmbH-Firmenlogo
Projekt-Ingenieur (m/w/d) in der Anlagenzertifizierung MKH Greenergy Cert GmbH
Hamburg Zum Job 
Schleifring GmbH-Firmenlogo
Vertriebsingenieur (m/w/d) Schleifring GmbH
Fürstenfeldbruck Zum Job 
mondi-Firmenlogo
Junior Anwendungstechniker (m/w/x) mondi
Steinfeld Zum Job 
Energieversorgung Leverkusen GmbH & Co.KG-Firmenlogo
Technische Mitarbeiter Vertragsmanagement (m/w/d) Energieversorgung Leverkusen GmbH & Co.KG
Leverkusen Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur (m/w/d) für Straßenausstattungsanlagen und Verkehrsführung Die Autobahn GmbH des Bundes
Osnabrück Zum Job 
Sprint Sanierung GmbH-Firmenlogo
Projektleiter (m/w/d) Großschäden Sprint Sanierung GmbH
Düsseldorf Zum Job 

Was bedeutet Deepfake?

Der Begriff „Deepfake“ bezeichnet die Manipulation von Video- oder Audioinhalten mithilfe von künstlicher Intelligenz (KI). Hierbei werden künstliche neuronale Netzwerke und maschinelles Lernen verwendet, um beispielsweise Gesichter in Videoclips durch die Gesichter anderer Personen zu ersetzen. Einige Deepfake-Verfahren ermöglichen sogar Echtzeitmanipulation.

Der Ausdruck „Deepfake“ setzt sich aus den englischen Begriffen „Deep Learning“ und „Fake“ zusammen. Er beschreibt die künstliche Generierung oder Modifikation von Video- und Audioinhalten unter Einsatz von KI-Technologien. Deepfakes nutzen dabei künstliche neuronale Netzwerke und Methoden des maschinellen Lernens, insbesondere des Deep Learning.

Verschiedene Arten von Deepfakes

Dies ermöglicht beispielsweise das Austauschen von Gesichtern in vorhandenen Videoclips, das Erzeugen von Sprachaufnahmen mit fremden Stimmen oder das Verändern von Bewegungen von Personen. Die resultierenden Inhalte erscheinen äußerst realistisch und authentisch, wodurch sie oft schwer als Fälschungen zu erkennen sind.

Laut Bundesamt für Sicherheit und Informationstechnik (BSI) gibt es verschiedene Arten von Deepfakes. Eine davon ist das „Face Swapping“, bei dem das Gesicht einer Person durch das einer anderen ersetzt wird, wobei Mimik, Gesichtsbeleuchtung und Blickrichtung beibehalten werden.

Eine andere Methode ist das „Face Reenactment“. Bei dieser Technik werden Kopfbewegungen, Mimik oder Lippenbewegungen einer Person durch die Erstellung von 3D-Modellen des Gesichts am Computer manipuliert. Das Resultat sind oft verblüffend realistische Videos. Zusätzlich können auch Stimmen mithilfe von Technologie authentisch nachgeahmt werden.

Wie lassen sich Deepfakes erstellen?

Die Erstellung eines Deepfakes ist durchaus einfach. Zunächst sammelt man Bilder oder Videos der gewünschten Person und verwendet eine spezielle, oftmals kostenlose Software. Die künstliche Intelligenz der Software extrahiert das Gesicht der Zielperson und integriert es in ein anderes Bild oder Video. Während die Software den Großteil der Arbeit übernimmt, hängt die Qualität und Authentizität des Endprodukts von der Rechenkapazität des verwendeten Computers ab.

Generell ist die Erstellung von Deepfakes nicht illegal, da es noch keine spezifischen Gesetze gibt, die dies regeln. Dennoch können bei der Verwendung von Bildmaterial ohne Zustimmung Persönlichkeits- und Urheberrechte verletzt werden. So schwirren zum Beispiel Videos von Barack Obama und Angela Merkel mit Aussagen durchs Netz, die diese niemals getätigt haben. Auch andere Promis sind schon Opfer von Deepfakes geworden.

So hat die damaligen Regierende Bürgermeisterin von Berlin, Franziska Giffey, im Jahr 2022 eine halbe Stunde vermeintlich mit Kiews Oberbürgermeister Vitali Klitschko gesprochen. Erst dann brach Giffey das Videotelefonat ab, weil ihr etwas an dem ehemaligen Boxweltmeister seltsam vorkam. Und in der Tat wurde sie Opfer eines Deepfakes. Wiens Bürgermeister Michael Ludwig war weniger misstrauisch, er soll über eine Stunde mit dem Fake-Klitschko gesprochen haben.

Welche Gefahren drohen durch Deepfakes?

Sie haben in diesem Beitrag einiges über die verschiedenen Möglichkeiten eines Deepfakes gelernt und können sicherlich erahnen, welche Gefahren durch gefälschte Stimmen, Videos oder Bildern drohen. Das Bundesamt für Sicherheit in der Informationstechnik formuliert folgende Bedrohungsszenarien:

  • Gefahren durch Deepfakes in biometrischen Systemen: Deepfakes ermöglichen die Erstellung von medialen Inhalten, die die Eigenschaften einer Zielperson imitieren. Diese Technologie kann insbesondere bei Fernidentifikationsverfahren, wie der Sprachererkennung über das Telefon oder Videoidentifikation, problematisch werden. Hier erhält ein Verteidigungssystem nur das Endsignal, hat aber keine Kontrolle über die Aufnahmetechnik oder eventuelle Manipulationen des Materials.
  • Einsatz im Social Engineering: Deepfakes können für gezielte Phishing-Angriffe, bekannt als „Spear-Phishing“, eingesetzt werden, um vertrauliche Informationen abzugreifen. Ein Angreifer könnte beispielsweise mithilfe von Deepfakes einen Anruf tätigen, der die Stimme einer Führungskraft imitiert, um so eine Geldtransaktion auszulösen – eine Methode, die als „CEO-Fraud“ bekannt ist.
  • Desinformationskampagnen: Mit Deepfakes können überzeugende Falschinformationen erstellt werden. Indem manipulierte Medieninhalte von wichtigen Persönlichkeiten generiert und verbreitet werden, könnten breit angelegte Desinformationskampagnen durchgeführt werden.
  • Risiko der Verleumdung: Die Fähigkeit, Personen Dinge sagen oder tun zu lassen, die sie nie gesagt oder getan haben, birgt das Risiko schwerer Rufschädigungen durch das Verbreiten von Unwahrheiten.

Opfer eines Deepfake-Betrugs können jedoch nicht nur Unternehmen oder prominente Persönlichkeiten werden. Auch Schülerinnen und Schüler, Großeltern, eigentlich jeder kann auf einen gefälschten Gegenüber reinfallen.

Deutsche Sicherheitsbehörden in großer Sorge

Innerhalb der deutschen Sicherheitsbehörden wächst die Besorgnis über das Potenzial von Deepfakes, insbesondere angesichts ihrer immer überzeugenderen Qualität. Es gibt Befürchtungen, dass Geheimdienste und andere staatliche Akteure sie für gezielte Desinformation, Manipulation und den Erwerb von vertraulichen Informationen nutzen könnten.

Laut einer aktuellen Publikation des Bundesamts für Verfassungsschutz (BfV), die besonders vor Wirtschaftsspionage warnt, ist es „sehr wahrscheinlich, dass technisch versierte Nachrichtendienste und staatliche Institutionen Deepfakes als innovative Angriffsmethoden einsetzen werden“. Mit den Fortschritten in der künstlichen Intelligenz wird es einfacher, Personen in Audio- und Videoaufnahmen fast fehlerfrei zu imitieren.

Die Bedrohung beschränkt sich nicht nur auf manipulierte Videos im Internet. Es besteht auch die Gefahr von Live-Manipulationen während Videokonferenzen. Solche Deepfakes könnten fremden Geheimdiensten, Hackern oder Wirtschaftsspionen völlig neue Manipulations- und Datenerfassungsmöglichkeiten bieten. Ein entscheidender Vorteil dieser Methode gegenüber traditioneller Spionage ist, dass kein neues Vertrauensverhältnis zum Ziel aufgebaut werden muss, da die imitierte Person vermutlich bereits als vertrauenswürdig angesehen wird –  zum Beispiel bei Vitali Klitschko.

Wie lassen sich Deepfakes erkennen?

Auch wenn Deepfakes mit immer besseren KI-Tools oft nur noch schwer zu erkennen sind, gibt es einige Anzeichen, die darauf hindeuten könnten. Dr. Nicolas Müller vom Fraunhofer-Institut AISEC (Angewandte und Integrierte Sicherheit) forscht seit Jahren zum Thema künstlicher Intelligenz und Deepfakes. Gegenüber dem Südkurier nannte er folgende Merkmale, die auf ein gefälschtes Audio oder Video hindeuten könnten:

  • Unnatürliche Gesichtsbewegungen: Wenn die Bewegungen im Gesicht einer Person nicht typisch oder auffällig ungewöhnlich erscheinen, lohnt es sich, genauer hinzusehen.
  • Diskrepanzen zwischen Audio und Video: Ein Indikator kann sein, wenn die Lippenbewegungen der Person nicht mit der Tonspur synchronisiert sind.
  • Bild- und Tonauffälligkeiten: Hinweise auf Manipulationen können Pixelfehler, untypische Übergänge sowie ungewöhnliche Kanten und Schatten im Bild sein. Im Audiotrack können Störgeräusche wie Knacken, Rauschen oder ungewöhnliche hohe Töne auf Deepfakes hindeuten.
  • Unnatürlicher Sprachfluss: Bei Audio-Deepfakes, die mit großen und möglicherweise fehlerhaften Datenmengen trainiert wurden, kann es zu einer roboterhaften oder untypischen Sprechweise kommen, besonders wenn die Trainingsdaten Fehler enthalten oder nicht korrekt annotiert wurden.

Gibt es Tools oder Technologien, um Deepfakes automatisch zu erkennen?

In manchen Fällen ist der Einsatz von Technologie unerlässlich. Es existieren spezielle Anwendungen, die darauf ausgelegt sind, Fälschungen aufzudecken. Diese analysieren beispielsweise Farbwerte oder Metadaten eines Fotos, welche Informationen über Ort und Zeitpunkt der Aufnahme liefern. Unternehmen wie Sentinel, Intel und Microsoft bieten solche Deepfake-Erkennungsprogramme an.

Diese Tools setzen auf hoch entwickelte KI-Algorithmen, um Deepfakes präzise zu identifizieren. Jedes dieser Programme hat einen eigenen Ansatz, angefangen von der Untersuchung feinster Graustufenabweichungen in einem Video bis zur genauen Beobachtung von Gesichtsausdrücken und Bewegungen.

Zum Beispiel verwendet Sentinel KI-Technologien, um digitale Medien auf Manipulationen zu überprüfen und diese visuell darzustellen. Microsofts Video Authenticator hingegen gibt in Echtzeit einen Vertrauenswert aus, der Aufschluss darüber gibt, ob ein Bild oder Video bearbeitet wurde.

Diese Werkzeuge sind an vorderster Front im Bestreben, Deepfakes zu bekämpfen und die Glaubwürdigkeit digitaler Inhalte sicherzustellen. Da sich Deepfake-Technologien ständig weiterentwickeln, müssen auch die Erkennungsmethoden stetig angepasst werden. Denn eines sollte klar sein – die Ära der Deepfakes hat gerade erst begonnen.

Studie des Fraunhofer Institut für System- und Innovationsforschung

Im Juni 2024 hat das Fraunhofer ISI eine Studie veröffentlicht, die im Auftrag von TA-SWISS durchgeführt wurde. Diese befasst sich umfassend mit dem Thema „Deepfakes“. Zunächst wurden der technologische Fortschritt und der Stand der Forschung zu Deepfakes zusammengetragen. Zusätzlich wurde untersucht, wie die Schweizer Bevölkerung Deepfakes wahrnimmt. Darüber hinaus analysierte die Studie potenzielle Auswirkungen auf Journalismus, Recht, Politik und Wirtschaft und formulierte daraufhin Handlungsempfehlungen für diese Bereiche.

Durch eine repräsentative Umfrage von über 1.300 Personen untersuchte die Studie, wie die Schweizer Bevölkerung Deepfakes wahrnimmt, welche Erfahrungen sie damit gemacht hat und wie sie die Chancen und Risiken dieser Technologien einschätzt. Die Ergebnisse zeigen, dass der Begriff „Deepfake“ vielen Befragten noch unbekannt ist – nur etwa die Hälfte hat schon davon gehört oder selbst Deepfakes gesehen.

Lediglich eine sehr kleine Minderheit hat Erfahrung mit dem Erstellen (2%) und Verbreiten (3%) von Deepfakes. Ein Experiment innerhalb der Studie zeigte, dass die Teilnehmer Deepfakes kaum von realen Videos unterscheiden konnten, insbesondere wenn diese von guter bis sehr guter Qualität waren. Die Befragten assoziierten Deepfakes überwiegend mit Risiken und weniger mit Chancen. Interessanterweise beeinflusste die gewählte Terminologie den Diskurs: Wurde von „synthetischen Medien“ gesprochen, fielen die Bewertungen positiver aus als bei der Verwendung des Begriffs „Deepfakes“.

Deepfakes in erster Linie Risiko, doch nicht nur

Die Studie untersuchte außerdem die aktuelle und zukünftige Rolle von Deepfakes in Justiz, Journalismus, Politik und Wirtschaft durch Experteninterviews, Umfragen und Literaturrecherchen. Im Journalismus und in der Politik werden Deepfakes primär als Risiko und Teil von Desinformation betrachtet. Interviewte Journalisten betonten die Notwendigkeit, das Publikum für Deepfakes zu sensibilisieren und Wissen zur Überprüfung von Inhalten zu vermitteln. Schweizer Parlamentarier
und Beamte äußerten Besorgnis über die möglichen negativen Auswirkungen von Deepfakes auf Demokratie und politische Institutionen, wobei es derzeit an konkreten Schutzmaßnahmen fehlt.

Im Bereich Recht und Wirtschaft zeigte die Studie, dass Deepfakes nicht nur Risiken, sondern auch kreatives und ökonomisches Potenzial bergen. Während einige Anwendungen illegal sind, fallen andere unter Meinungs-, Informations-, Kunstfreiheit oder Urheberrechtsschutz. In der Wirtschaft besteht ein erhebliches Potenzial für kreative und wirtschaftliche Anwendungen von Deepfakes. Dennoch sehen Wirtschaftsvertreter auch Gefahren wie Identitätsbetrug, Rufschädigung von Unternehmen, Täuschung von Mitarbeitenden und Industriespionage.

Zentrale Handlungsempfehlungen

Dr. Murat Karaboga, Autor der Deepfake-Studie am Fraunhofer ISI, leitet folgende Handlungsempfehlungen aus der Studie ab:

  1. Staatliche Maßnahmen und Plattformregulierung: Es ist unerlässlich, dass der Staat seine Bemühungen zur Regulierung von Plattformen verstärkt. Dazu gehört die Möglichkeit zur Löschung oder Sperrung gemeldeter Deepfakes und ein Meldesystem für rechtswidrige Inhalte mit entsprechenden Transparenzvorgaben.
  2. Bildungsangebote und Selbstverantwortung: Die Selbstverantwortung der Bürgerinnen und Bürger sollte durch Bildungsangebote verbessert werden. Dabei spielen die Unterstützung von Opferberatungsstellen und die Förderung von Medienkompetenz eine besondere Rolle.
  3. Vorbereitung von Organisationen: Organisationen in allen gesellschaftlichen und wirtschaftlichen Bereichen sollten sich auf die zunehmende Allgegenwart von Deepfakes vorbereiten. Dazu gehört die Durchführung interner Risikoabschätzungen sowie die Entwicklung präventiver und reaktiver Maßnahmen.
  4. Rolle des Journalismus: Der Journalismus sollte durch hohe Standards zur besseren Erkennung und Aufklärung von Deepfakes beitragen, um die Bevölkerung über gefälschte Inhalte zu informieren.
  5. Anpassung an technologische Entwicklungen: Politik, Wirtschaft und Gesellschaft müssen sich der schnellen technologischen Entwicklung bewusst werden und darauf vorbereitet sein, neue Entwicklungen zu erkennen und angemessen darauf zu reagieren.

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.