Urheberrrechte 22.01.2024, 14:00 Uhr

Nightshade: Ein Tool, das die Bilder-KI vergiften kann

Nightshade, ein Tool der University of Chicago, schützt künstlerische Werke im KI-Training, indem es Bilder durch gezielte Fehlinformationen in „vergiftete“ Daten umwandelt.

KI

Nightshade: Künstlerischer Schutz vor KI-Training - Wie ein innovatives Tool der University of Chicago Bilder mit gezielten Fehlinformationen 'vergiftet'.

Foto: PantherMedia / agsandrew

Das Training von KI-Systemen ist ein komplexer Prozess, der eine Vielzahl von Datenquellen erfordert, um eine breite und robuste künstliche Intelligenz zu entwickeln. Oftmals werden für das Training große Mengen an Daten verwendet, darunter auch künstlerische Werke wie Bilder, Musik oder Texte. Dies wirft jedoch Fragen bezüglich der Urheberrechte der Künstler auf.

Denn: Generative KI-Modelle und ihre Trainer nutzen jegliche Online-Inhalte, um ihre Modelle zu trainieren. Es existieren nur wenige Instrumente für Inhalteigentümer und -schöpfer, um zu verhindern, dass ihre Inhalte ungefragt in ein generatives KI-Modell einfließen.

Top Stellenangebote

Zur Jobbörse
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur als Fachexperte Umweltschutz (w/m/d) Die Autobahn GmbH des Bundes
Hannover Zum Job 
Hasse & Wrede GmbH-Firmenlogo
Torsional Vibration Solution Architect (m/f/d) Hasse & Wrede GmbH
Berlin (Home-Office) Zum Job 
Hasse & Wrede GmbH-Firmenlogo
Entwicklungsingenieur für Torsionsschwingungslösungen (m/w/d) Hasse & Wrede GmbH
Berlin (Home-Office) Zum Job 
MicroNova AG-Firmenlogo
Industrial Engineer (m/w/d) Electrical Engineering / Elektrotechnik MicroNova AG
Vierkirchen Zum Job 
JOSEPH VÖGELE AG-Firmenlogo
Konstruktionsingenieur (m/w/d) Maschinenbau JOSEPH VÖGELE AG
Ludwigshafen am Rhein Zum Job 
NORMA Group Holding GmbH-Firmenlogo
Product Design Engineer (m/f/d) NORMA Group Holding GmbH
Maintal Zum Job 
DFS Deutsche Flugsicherung GmbH-Firmenlogo
Ingenieur (w/m/d) - Teilprojektleitung für Bauprojekte DFS Deutsche Flugsicherung GmbH
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur (w/m/d) konstruktiver Ingenieurbau Die Autobahn GmbH des Bundes
Bundeswehr-Firmenlogo
Ingenieurin / Ingenieur mit Bachelor (m/w/d) Bundeswehr
keine Angabe Zum Job 
SARPI Deutschland GmbH-Firmenlogo
Junior-Betriebsingenieur/Verfahrensingenieur Prozesstechnik (m/w/d) SARPI Deutschland GmbH
Cummins Deutschland GmbH-Firmenlogo
Application Engineer (m/w/d) Systems / Software für Nutzfahrzeuge Cummins Deutschland GmbH
Nürnberg Zum Job 
Jülich Forschungszentrum-Firmenlogo
Revisor mit Schwerpunkt Baurevision oder IT-Revision (w/m/d) Jülich Forschungszentrum
Jülich bei Köln Zum Job 
Bundeswehr-Firmenlogo
Ingenieurin / Ingenieur mit Bachelor (m/w/d) Bundeswehr
keine Angabe Zum Job 
MKH Greenergy Cert GmbH-Firmenlogo
Projekt-Ingenieur (m/w/d) in der Anlagenzertifizierung MKH Greenergy Cert GmbH
Hamburg Zum Job 
Schleifring GmbH-Firmenlogo
Vertriebsingenieur (m/w/d) Schleifring GmbH
Fürstenfeldbruck Zum Job 
mondi-Firmenlogo
Junior Anwendungstechniker (m/w/x) mondi
Steinfeld Zum Job 
Energieversorgung Leverkusen GmbH & Co.KG-Firmenlogo
Technische Mitarbeiter Vertragsmanagement (m/w/d) Energieversorgung Leverkusen GmbH & Co.KG
Leverkusen Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Bauingenieur (m/w/d) für Straßenausstattungsanlagen und Verkehrsführung Die Autobahn GmbH des Bundes
Osnabrück Zum Job 
Sprint Sanierung GmbH-Firmenlogo
Projektleiter (m/w/d) Großschäden Sprint Sanierung GmbH
Düsseldorf Zum Job 

Jetzt gibt es eine Lösung, die Künstlern die Möglichkeit bietet, ihre Bilder durch gezielte Fehlinformationen zu ergänzen, um das Training von KI-Systemen zu beeinträchtigen.

Wissenschaftler der University of Chicago haben ein Tool namens Nightshade vorgestellt, das Künstlern ermöglicht, ihre Bilder (online) zu manipulieren, um zu verhindern, dass KI-Systeme sie ohne Erlaubnis erfassen, berichtet Golem in Bezug auf einen Bericht von The Register heißt.

Wie funktioniert Nightshade?

Die Nightshade-Software führt subtile Veränderungen an Bildern durch, die für den menschlichen Betrachter kaum wahrnehmbar sind, aber erhebliche Störungen in KI-Modellen verursachen können, die darauf trainiert werden. Ziel ist es, Künstlern zu ermöglichen, ihre Werke vor ungenehmigter Verwendung im Rahmen des Trainings zu schützen.

Mit anderen Worten: Nightshade ist ein Tool, das Bilder in für das Modelltraining ungeeignete Daten umwandelt. Es „vergiftet“ die Bilder, sodass Modelle, die ohne Erlaubnis darauf trainiert werden, unvorhersehbares Verhalten erlernen, das von den erwarteten Normen abweicht. Beispielsweise könnte eine Anfrage, wie die Forschenden mitteilen, nach einem Bild einer fliegenden Kuh im Weltraum stattdessen ein Bild einer Handtasche im Weltraum liefern.

Geistiges Eigentum schützen

Dieses Tool soll potenzielle Nutzer, seien es Unternehmen oder Einzelpersonen, davon abhalten, künstlerische Bilder für das Training von KI-Modellen zu verwenden, ohne zuvor die ausdrückliche Zustimmung der Urheber eingeholt zu haben. Diese Praxis wird zunehmend verbreitet, da KI-Modelle stark auf umfangreiche Bilddatenbanken angewiesen sind.

„Nightshade stellt ein leistungsstarkes Instrument für Inhaltsinhaber dar, um ihr geistiges Eigentum vor Modelltrainern zu schützen, die Urheberrechtsvermerke, Anweisungen zum Nicht-Scrapen/Crawlen und Opt-out-Listen ignorieren oder missachten“, so die Autoren in ihrem Artikel.

Es gibt aber auch Kritikpunkte: Matthew Guzdial, Assistenzprofessor für Informatik an der University of Alberta, hat in einem Beitrag in sozialen Medien geschrieben: „Das ist eine interessante und zeitgemäße Arbeit! Aber ich mache mir Sorgen, dass sie als die Lösung überbewertet wird. Sie funktioniert nur mit CLIP-basierten Modellen und laut den Autoren wären 8 Millionen ‚vergiftete‘ Bilder erforderlich, um einen signifikanten Einfluss auf die Generierung ähnlicher Bilder für LAION-Modelle zu haben.“

Abwehr gegen Stilkopien: Nightshade und Glaze im Einsatz

Nightshade wurde von der gleichen Forschergruppe an der University of Chicago entwickelt, die auch das Abwehrtool Glaze konzipierte. Glaze zielt darauf ab, die KI bei der Imitation künstlerischer Stile zu beeinträchtigen.

„Stilkopien führen zu einer Reihe von schädlichen Auswirkungen, die auf den ersten Blick möglicherweise nicht offensichtlich sind“, erklären die Wissenschaftler. „Für Künstler, deren Stile absichtlich kopiert werden, bedeutet dies nicht nur einen Verlust an Aufträgen und Grundgehalt, sondern auch minderwertige synthetische Kopien, die online verstreut sind, schmälern ihre Marke und Reputation. Am wichtigsten ist jedoch, dass Künstler ihre Stile mit ihrer eigentlichen Identität verbinden“.

Ein Beitrag von:

  • Alexandra Ilina

    Redakteurin beim VDI-Verlag. Nach einem Journalistik-Studium an der TU-Dortmund und Volontariat ist sie seit mehreren Jahren als Social Media Managerin, Redakteurin und Buchautorin unterwegs.  Sie schreibt über Karriere und Technik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.