Urheberrrechte 22.01.2024, 14:00 Uhr

Nightshade: Ein Tool, das die Bilder-KI vergiften kann

Nightshade, ein Tool der University of Chicago, schützt künstlerische Werke im KI-Training, indem es Bilder durch gezielte Fehlinformationen in „vergiftete“ Daten umwandelt.

KI

Nightshade: Künstlerischer Schutz vor KI-Training - Wie ein innovatives Tool der University of Chicago Bilder mit gezielten Fehlinformationen 'vergiftet'.

Foto: PantherMedia / agsandrew

Das Training von KI-Systemen ist ein komplexer Prozess, der eine Vielzahl von Datenquellen erfordert, um eine breite und robuste künstliche Intelligenz zu entwickeln. Oftmals werden für das Training große Mengen an Daten verwendet, darunter auch künstlerische Werke wie Bilder, Musik oder Texte. Dies wirft jedoch Fragen bezüglich der Urheberrechte der Künstler auf.

Denn: Generative KI-Modelle und ihre Trainer nutzen jegliche Online-Inhalte, um ihre Modelle zu trainieren. Es existieren nur wenige Instrumente für Inhalteigentümer und -schöpfer, um zu verhindern, dass ihre Inhalte ungefragt in ein generatives KI-Modell einfließen.

Jetzt gibt es eine Lösung, die Künstlern die Möglichkeit bietet, ihre Bilder durch gezielte Fehlinformationen zu ergänzen, um das Training von KI-Systemen zu beeinträchtigen.

Wissenschaftler der University of Chicago haben ein Tool namens Nightshade vorgestellt, das Künstlern ermöglicht, ihre Bilder (online) zu manipulieren, um zu verhindern, dass KI-Systeme sie ohne Erlaubnis erfassen, berichtet Golem in Bezug auf einen Bericht von The Register heißt.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
RheinEnergie AG-Firmenlogo
Planungsingenieur / Projektleiter Elektrotechnik (m/w/d) RheinEnergie AG
Festo SE & Co. KG-Firmenlogo
Product Owner for Systems Simulation Engineering (m/w/d) Festo SE & Co. KG
Esslingen Zum Job 
Schleifring GmbH-Firmenlogo
Testingenieur für die Produktqualifikation (m/w/d) Schleifring GmbH
Fürstenfeldbruck Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur (w/m/d) C-ITS Entwicklung Die Autobahn GmbH des Bundes
Frankfurt am Main Zum Job 
DB AG-Firmenlogo
Ingenieur:in Elektrotechnik DB AG
verschiedene Standorte Zum Job 
Kromberg & Schubert Automotive GmbH & Co. KG-Firmenlogo
Ingenieur Datenmanagement / -prozesse (m/w/d) Kromberg & Schubert Automotive GmbH & Co. KG
Abensberg Zum Job 
Recogizer-Firmenlogo
Projektingenieur (m/w/d) KI-gestützte CO2-Reduktion Recogizer
Pfisterer Kontaktsysteme GmbH-Firmenlogo
High Voltage Testing Specialist (w/m/d) Pfisterer Kontaktsysteme GmbH
Winterbach Zum Job 
Recogizer-Firmenlogo
Projektingenieur (m/w/d) KI-gestützte CO2-Reduktion Recogizer
über ifp | Executive Search. Management Diagnostik.-Firmenlogo
Produktionsleiter:in über ifp | Executive Search. Management Diagnostik.
Netzgesellschaft Potsdam GmbH-Firmenlogo
Betriebsingenieur (m/w/d) Elektrotechnik/Energietechnik für die Niederspannung bzw. Hochspannung Netzgesellschaft Potsdam GmbH
Potsdam Zum Job 
Truma Gerätetechnik GmbH & Co. KG-Firmenlogo
Elektroniker (m/w/d) im Bereich Fahrzeugelektronik Truma Gerätetechnik GmbH & Co. KG
Putzbrunn Zum Job 
Netzgesellschaft Potsdam GmbH-Firmenlogo
Ingenieur Strategische Netzplanung (m/w/d) für Strom, Datennetze, Infokabel, 450 MHz Netzgesellschaft Potsdam GmbH
Potsdam Zum Job 
Deutsche Rentenversicherung Bund-Firmenlogo
Teamleiter*in Bauprojekte Elektrotechnik (m/w/div) Deutsche Rentenversicherung Bund
BG ETEM-Firmenlogo
Dipl.-Ing. (Uni/TU/TH), M. Sc./Eng. (m/w/d) im Bereich Fachkompetenzcenter Elektrische Gefährdungen BG ETEM
GIBY GmbH-Firmenlogo
Service Techniker (m/w/d) für Telekommunikationsnetze GIBY GmbH
Leipzig Zum Job 
Schleifring GmbH-Firmenlogo
Vertriebsingenieur (m/w/d) Schleifring GmbH
Fürstenfeldbruck Zum Job 
Landesbetrieb Bau und Immobilien Hessen (LBIH)-Firmenlogo
Ingenieur (m/w/d) Elektrotechnik Landesbetrieb Bau und Immobilien Hessen (LBIH)
Bad Nauheim, Gießen Zum Job 
NKT Group GmbH-Firmenlogo
Prüfingenieur mobile Prüfeinrichtung (m/w/d) NKT Group GmbH
NKT Group GmbH-Firmenlogo
Junior Site Manager (m/w/d) NKT Group GmbH
Köln, Berlin Zum Job 

Wie funktioniert Nightshade?

Die Nightshade-Software führt subtile Veränderungen an Bildern durch, die für den menschlichen Betrachter kaum wahrnehmbar sind, aber erhebliche Störungen in KI-Modellen verursachen können, die darauf trainiert werden. Ziel ist es, Künstlern zu ermöglichen, ihre Werke vor ungenehmigter Verwendung im Rahmen des Trainings zu schützen.

Mit anderen Worten: Nightshade ist ein Tool, das Bilder in für das Modelltraining ungeeignete Daten umwandelt. Es „vergiftet“ die Bilder, sodass Modelle, die ohne Erlaubnis darauf trainiert werden, unvorhersehbares Verhalten erlernen, das von den erwarteten Normen abweicht. Beispielsweise könnte eine Anfrage, wie die Forschenden mitteilen, nach einem Bild einer fliegenden Kuh im Weltraum stattdessen ein Bild einer Handtasche im Weltraum liefern.

Geistiges Eigentum schützen

Dieses Tool soll potenzielle Nutzer, seien es Unternehmen oder Einzelpersonen, davon abhalten, künstlerische Bilder für das Training von KI-Modellen zu verwenden, ohne zuvor die ausdrückliche Zustimmung der Urheber eingeholt zu haben. Diese Praxis wird zunehmend verbreitet, da KI-Modelle stark auf umfangreiche Bilddatenbanken angewiesen sind.

„Nightshade stellt ein leistungsstarkes Instrument für Inhaltsinhaber dar, um ihr geistiges Eigentum vor Modelltrainern zu schützen, die Urheberrechtsvermerke, Anweisungen zum Nicht-Scrapen/Crawlen und Opt-out-Listen ignorieren oder missachten“, so die Autoren in ihrem Artikel.

Es gibt aber auch Kritikpunkte: Matthew Guzdial, Assistenzprofessor für Informatik an der University of Alberta, hat in einem Beitrag in sozialen Medien geschrieben: „Das ist eine interessante und zeitgemäße Arbeit! Aber ich mache mir Sorgen, dass sie als die Lösung überbewertet wird. Sie funktioniert nur mit CLIP-basierten Modellen und laut den Autoren wären 8 Millionen ‚vergiftete‘ Bilder erforderlich, um einen signifikanten Einfluss auf die Generierung ähnlicher Bilder für LAION-Modelle zu haben.“

Abwehr gegen Stilkopien: Nightshade und Glaze im Einsatz

Nightshade wurde von der gleichen Forschergruppe an der University of Chicago entwickelt, die auch das Abwehrtool Glaze konzipierte. Glaze zielt darauf ab, die KI bei der Imitation künstlerischer Stile zu beeinträchtigen.

„Stilkopien führen zu einer Reihe von schädlichen Auswirkungen, die auf den ersten Blick möglicherweise nicht offensichtlich sind“, erklären die Wissenschaftler. „Für Künstler, deren Stile absichtlich kopiert werden, bedeutet dies nicht nur einen Verlust an Aufträgen und Grundgehalt, sondern auch minderwertige synthetische Kopien, die online verstreut sind, schmälern ihre Marke und Reputation. Am wichtigsten ist jedoch, dass Künstler ihre Stile mit ihrer eigentlichen Identität verbinden“.

Ein Beitrag von:

  • Alexandra Ilina

    Redakteurin beim VDI-Verlag. Nach einem Journalistik-Studium an der TU-Dortmund und Volontariat ist sie seit mehreren Jahren als Social Media Managerin, Redakteurin und Buchautorin unterwegs.  Sie schreibt über Karriere und Technik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.