Mit KI gegen KI: So lassen sich Bildmanipulationen verhindern
Die Grenze zwischen Realität und Fälschung wird dank modernster Technik immer schwieriger erkennbar. Das stellt bei Bildern durchaus ein Problem dar. Manipulierte Bilder können verheerende Folgen nach sich ziehen. MIT-Forschende haben nun ein KI-Modell entwickelt, um Bilder vor der Manipulation durch andere KI-Systeme zu schützen.
Künstliche Intelligenz gehört zunehmend zu unserem Alltag. Inzwischen gibt es sprachgestützte Modelle, mit denen sich ganze Texte verfassen lassen und sogar Möglichkeiten, Bilder auf relativ einfache Art und Weise zu verfälschen. Besonders das kann schwerwiegende Folgen nach sich ziehen. Denn ein Bild kann sehr schnell verbreitet werden und hat eine Aussagekraft. Mit gefälschten oder manipulierten Bildern könnten Katastrophen vorgetäuscht werden, die unter Umständen Markttrends und die öffentliche Stimmung beeinflussen. Geht es in den persönlichen Bereich, denkt man schnell an Mobbing oder Erpressung mit erheblichen emotionalen und finanziellen Schäden. Auch falsche Verbrechen lassen sich so inszenieren. Und selbst, wenn das Täuschungsmanöver irgendwann auffliegt, der Schaden ist dann längst entstanden.
KI und die Arbeitswelt: Arbeitsplätze werden wegen ChatGPT verschwinden
Forschende des MIT haben deshalb eine spezielle Methode entwickelt, mit dem gezielt Manipulationen an Bildern verhindert werden können. „PhotoGuard“ heißt das ebenfalls auf KI basierte Modell. Im Grundsatz funktioniert es technisch wie folgt: Das System nutzt Störungen, zum Beispiel kleinste Änderungen der Pixelwerte. Sie sind für das menschliche Auge nicht sichtbar, aber Computermodelle sind in der Lage, sie zu erkennen. Auf diese Art und Weise lässt sich die Bildmanipulation effektiv beeinträchtigen.
Eingriff der KI zum Schutz des Bildes ist für das menschliche Auge unsichtbar
PhotoGuard nutzt zwei verschiedene Methoden, um solche Bilder gar nicht erst entstehen zu lassen. Die einfache Methode nennen die Forschenden als „Encoder“-Angriff. KI-Modelle begreifen ein Bild als komplexen Satz mathematischer Datenpunkte, bei der Farbe und Position durch Pixel beschrieben werden. Das bezeichnen Forschende auch als die latente Darstellung eines Bildes. Setzen sie den „Encoder“ ein, entstehen leichte Anpassungen an der mathematischen Darstellung, so dass das KI-Modell das Bild als zufällige Einheit wahrnimmt. Dadurch wird es nahezu unmöglich, das Bild mithilfe einer KI zu verändern. Die visuelle Anmutung des Bildes bleibt dabei unverändert, die Anpassungen sind für das menschliche Auge nicht wahrnehmbar. Und doch bietet genau diese Methode schon einen gewissen Schutz vor Bildmanipulationen.
Die zweite Methode ist deutlich komplexer: Mit dem sogenannten „Diffusions“-Angriff zielen die Forschenden strategisch auf das gesamte Diffusionsmodell ab. Zuerst muss dafür ein gewünschtes Zielbild ermittelt werden. Im Anschluss erfolgt der Optimierungsprozess. Am Ende soll das Bild sich an dem vorab ausgewählten Zielbild ausrichten. Als Schutzmechanismus nutzen die Forschenden gezielt erzeugte Störungen. Ein Beispiel: Stellen Sie sich ein bekanntes Kunstobjekt vor, zum Beispiel die Mona Lisa. Zu diesem Originalbild entsteht nun das sogenannte Zielbild. Dabei handelt es sich um eine weitere Zeichnung, die allerdings komplett vom Original abweicht. Für das KI-Modell entsteht dadurch der Eindruck, dass das Original dem Zielbild ähnelt. Setzt nun ein KI-Modell zum Versuch an, das Originalbild zu manipulieren, ändert es aber eigentlich das Zielbild. So bleibt das Original für unbefugten Bearbeitungen durch KI-Modelle geschützt. Da für diese Methode erheblich mehr Rechenleistung notwendig ist, arbeiten die Forschenden aktuell schon daran, dies zu verbessern und zu vereinfachen. Denn ihr Ziel ist es, diese Möglichkeiten einer breiten Öffentlichkeit zugänglich zu machen.
KI-Modelle könnten Bilder künftig automatisch schützen
Für die Forschenden ist es im nächsten Schritt wichtig, alle Beteiligten dazu zu bewegen, gemeinsam gegen Bildmanipulation zu agieren. Denn auch PhotoGuard sei nur langfristig erfolgreich, wenn es künftig Vorschriften gäbe, um Manipulationen zu verhindern. So könnten zum Beispiel den Bildern automatisch Störungen beigefügt werden, um den Schutz zu gewährleisten. Grundsätzlich sei PhotoGuard kein Allheilmittel. Schließlich findet sich fast immer ein Weg, wenn ausreichend kriminelle Energie vorhanden ist. Doch die Forschenden sind sich sicher, dass ein kollaborativer Ansatz zwischen Modellentwicklern, Social-Media-Plattformen und politischen Entscheidungsträgern dazu führen kann, einen entsprechenden Schutzrahmen zu schaffen. „Unternehmen, die diese Modelle entwickeln, müssen in die Entwicklung robuster Immunisierungen gegen die möglichen Bedrohungen investieren, die von KI-Tools ausgehen“, erklärt Hadi Salman, MIT-Absolvent in Elektrotechnik und Informatik und Mitinitiator von PhotoGuard.
Mehr zum Thema KI:
Ein Beitrag von: