Nightshade: Ein Tool, das die Bilder-KI vergiften kann
Nightshade, ein Tool der University of Chicago, schützt künstlerische Werke im KI-Training, indem es Bilder durch gezielte Fehlinformationen in „vergiftete“ Daten umwandelt.
Das Training von KI-Systemen ist ein komplexer Prozess, der eine Vielzahl von Datenquellen erfordert, um eine breite und robuste künstliche Intelligenz zu entwickeln. Oftmals werden für das Training große Mengen an Daten verwendet, darunter auch künstlerische Werke wie Bilder, Musik oder Texte. Dies wirft jedoch Fragen bezüglich der Urheberrechte der Künstler auf.
Denn: Generative KI-Modelle und ihre Trainer nutzen jegliche Online-Inhalte, um ihre Modelle zu trainieren. Es existieren nur wenige Instrumente für Inhalteigentümer und -schöpfer, um zu verhindern, dass ihre Inhalte ungefragt in ein generatives KI-Modell einfließen.
Jetzt gibt es eine Lösung, die Künstlern die Möglichkeit bietet, ihre Bilder durch gezielte Fehlinformationen zu ergänzen, um das Training von KI-Systemen zu beeinträchtigen.
Wissenschaftler der University of Chicago haben ein Tool namens Nightshade vorgestellt, das Künstlern ermöglicht, ihre Bilder (online) zu manipulieren, um zu verhindern, dass KI-Systeme sie ohne Erlaubnis erfassen, berichtet Golem in Bezug auf einen Bericht von The Register heißt.
Wie funktioniert Nightshade?
Die Nightshade-Software führt subtile Veränderungen an Bildern durch, die für den menschlichen Betrachter kaum wahrnehmbar sind, aber erhebliche Störungen in KI-Modellen verursachen können, die darauf trainiert werden. Ziel ist es, Künstlern zu ermöglichen, ihre Werke vor ungenehmigter Verwendung im Rahmen des Trainings zu schützen.
Mit anderen Worten: Nightshade ist ein Tool, das Bilder in für das Modelltraining ungeeignete Daten umwandelt. Es „vergiftet“ die Bilder, sodass Modelle, die ohne Erlaubnis darauf trainiert werden, unvorhersehbares Verhalten erlernen, das von den erwarteten Normen abweicht. Beispielsweise könnte eine Anfrage, wie die Forschenden mitteilen, nach einem Bild einer fliegenden Kuh im Weltraum stattdessen ein Bild einer Handtasche im Weltraum liefern.
Geistiges Eigentum schützen
Dieses Tool soll potenzielle Nutzer, seien es Unternehmen oder Einzelpersonen, davon abhalten, künstlerische Bilder für das Training von KI-Modellen zu verwenden, ohne zuvor die ausdrückliche Zustimmung der Urheber eingeholt zu haben. Diese Praxis wird zunehmend verbreitet, da KI-Modelle stark auf umfangreiche Bilddatenbanken angewiesen sind.
„Nightshade stellt ein leistungsstarkes Instrument für Inhaltsinhaber dar, um ihr geistiges Eigentum vor Modelltrainern zu schützen, die Urheberrechtsvermerke, Anweisungen zum Nicht-Scrapen/Crawlen und Opt-out-Listen ignorieren oder missachten“, so die Autoren in ihrem Artikel.
Es gibt aber auch Kritikpunkte: Matthew Guzdial, Assistenzprofessor für Informatik an der University of Alberta, hat in einem Beitrag in sozialen Medien geschrieben: „Das ist eine interessante und zeitgemäße Arbeit! Aber ich mache mir Sorgen, dass sie als die Lösung überbewertet wird. Sie funktioniert nur mit CLIP-basierten Modellen und laut den Autoren wären 8 Millionen ‚vergiftete‘ Bilder erforderlich, um einen signifikanten Einfluss auf die Generierung ähnlicher Bilder für LAION-Modelle zu haben.“
Abwehr gegen Stilkopien: Nightshade und Glaze im Einsatz
Nightshade wurde von der gleichen Forschergruppe an der University of Chicago entwickelt, die auch das Abwehrtool Glaze konzipierte. Glaze zielt darauf ab, die KI bei der Imitation künstlerischer Stile zu beeinträchtigen.
„Stilkopien führen zu einer Reihe von schädlichen Auswirkungen, die auf den ersten Blick möglicherweise nicht offensichtlich sind“, erklären die Wissenschaftler. „Für Künstler, deren Stile absichtlich kopiert werden, bedeutet dies nicht nur einen Verlust an Aufträgen und Grundgehalt, sondern auch minderwertige synthetische Kopien, die online verstreut sind, schmälern ihre Marke und Reputation. Am wichtigsten ist jedoch, dass Künstler ihre Stile mit ihrer eigentlichen Identität verbinden“.
Ein Beitrag von: