Cybersicherheit 22.12.2023, 07:00 Uhr

KI-Systeme sind angreifbarer als gedacht

Das Potenzial künstlicher Intelligenz (KI) erscheint riesig. Gleichzeitig rückt das Thema Sicherheit immer mehr in den Fokus. Was kann passieren, wenn KI-Systeme nicht ausreichend geschützt sind? Eine Studie zeigt, dass künstliche Intelligenz anfälliger für bösartige Angriffe ist, als bisher angenommen.

Angriffe auf die Künstliche Intelligenz (KI)

Schwachstellen in KI-Systemen können in der Anwendung lebensbedrohliche Folgen haben.

Foto: PantherMedia / VitalikRadko

Technologien, die auf künstlicher Intelligenz (KI) gründen, kommen in verschiedenen Bereichen zum Einsatz: KI-Systeme filtern Spam-Mails, ermöglichen die Freischaltung des Smartphones durch Gesichtserkennung, regeln Licht- und Temperaturverhältnisse (Smart Home), übersetzen Texte in eine beliebige Sprache oder schlagen auf Grundlage individueller Fernsehgewohnheiten neue Filme und Serien vor. Doch nicht nur im Alltag ist die künstliche Intelligenz allgegenwärtig. Auch in der Landwirtschaf, der Energiebranche, im Finanz- und Gesundheitswesen sowie in der Industrie werden KI-Systeme bereits erfolgreich eingesetzt. Zudem spielt KI eine entscheidende Rolle bei der Entwicklung und dem Betrieb autonomer Fahrzeuge.

Mit der rasanten Verbreitung von KI in den unterschiedlichen Sektoren steigt auch die Zahl der Anwendungen mit sicherheitsrelevanter Bedeutung. Denkt man an selbstfahrende Autos oder an Diagnoseverfahren in der Medizin, die auf künstlicher Intelligenz basieren, können Schwachstellen im KI-System lebensbedrohliche Folgen haben. Daher wird immer häufiger die Frage laut: Wie sicher sind KI-Systeme tatsächlich? Offenbar nicht so sicher, wie bisher angenommen. Das ist das Ergebnis einer Studie von Forschenden der North Carolina State University. Sie stellten fest, dass viele KI-Systeme Sicherheitslücken aufweisen, die eine Manipulation der Daten ermöglichen.

Die häufigsten Varianten von Cyberangriffen im World Wide Web

Schwachstellen im KI-System ermöglichen Datenmanipulation

Um zu verstehen, wie Hacker eine KI beeinflussen können, ist es wichtig zu verstehen, wie ein solches System überhaupt funktioniert. Die wohl bekannteste Form der KI stützt sich auf die Methode des „Deep Learning“. Diese Technologie ist ein Teilbereich des maschinellen Lernens (ML) und ermöglicht es, große Datenmengen zu analysieren und aus ihnen zu lernen. Die KI baut auf diese Weise eine komplexe Netzwerkstruktur auf, mittels der sie neue Vorhersagen treffen kann. Doch durch das Einspeisen von Falschinformationen lässt sich ein solches System auch gezielt manipulieren. „Wenn die KI eine Schwachstelle hat und Angreifer diese Schwachstelle kennen, könnten sie diese Schwachstelle ausnutzen und das System manipulieren“, sagt Tianfu Wu, Professor für Elektrotechnik und Computertechnik an der North Carolina State University.

Weitere Informationen zum Thema Sicherheit von KI-Systemen:

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
HAMBURG WASSER-Firmenlogo
Ingenieur für Automatisierungstechnik Wasserwerke (m/w/d) HAMBURG WASSER
Hamburg-Rothenburgsort Zum Job 
Bundesbau Baden-Württemberg-Firmenlogo
Trainees Bundesbau Baden-Württemberg (w/m/d) Bundesbau Baden-Württemberg
verschiedene Standorte Zum Job 
Birkenstock Productions Hessen GmbH-Firmenlogo
Verantwortliche Elektrofachkraft (m/w/d) Birkenstock Productions Hessen GmbH
Steinau-Uerzell Zum Job 
TenneT TSO GmbH-Firmenlogo
Elektroingenieur für die Planung und Sicherstellung der europäischen Stromversorgung (m/w/d) TenneT TSO GmbH
Netzgesellschaft Potsdam GmbH-Firmenlogo
Ingenieur (m/w/d) Strategische Netzplanung Strom Netzgesellschaft Potsdam GmbH
Potsdam Zum Job 
Narda Safety Test Solutions GmbH'-Firmenlogo
Einkäufer für den Bereich Elektrotechnik (m/w/d) mit der Möglichkeit zur Teamleitung Narda Safety Test Solutions GmbH'
Pfullingen Zum Job 
Evonik Operations GmbH-Firmenlogo
EMR-Anlageningenieur (m/w/d) Evonik Operations GmbH
Rheinfelden (Baden) Zum Job 
Staatliche Gewerbeaufsicht Niedersachsen-Firmenlogo
Ingenieur / Naturwissenschaftler (m/w/d) für den Einsatz im Arbeitsschutz / Umweltschutz / Verbraucherschutz (Bachelor of Science / Bachelor of Engineering / Diplom / FH) Staatliche Gewerbeaufsicht Niedersachsen
verschiedene Standorte Zum Job 
Staatliche Gewerbeaufsicht Niedersachsen-Firmenlogo
Ingenieur / Naturwissenschaftler (m/w/d) für den Einsatz im Arbeitsschutz / Umweltschutz / Verbraucherschutz (Master, Diplom Uni) Staatliche Gewerbeaufsicht Niedersachsen
verschiedene Standorte Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
Schleifring GmbH-Firmenlogo
Projektingenieur (m/w/d) Key Account in der Elektronikbranche Schleifring GmbH
Fürstenfeldbruck Zum Job 
EMSCHERGENOSSENSCHAFT und LIPPEVERBAND-Firmenlogo
Gruppenleiter*in Elektrotechnik (m/w/d) EMSCHERGENOSSENSCHAFT und LIPPEVERBAND
Hamburger Hochbahn AG-Firmenlogo
Senior - Projektleiter Elektrotechnik Betriebsanlagen (w/m/d) Hamburger Hochbahn AG
Hamburg Zum Job 
3M Deutschland GmbH-Firmenlogo
Senior Capital Project Manager (m/f/d) 3M Deutschland GmbH
Kromberg & Schubert GmbH & Co.KG-Firmenlogo
Entwicklungsingenieur | Schaltplan (m/w/d) Kromberg & Schubert GmbH & Co.KG
Renningen bei Stuttgart Zum Job 
FCP Ingenieure Deutschland GmbH-Firmenlogo
BIM-Modeller Infrastruktur (m/w/d) FCP Ingenieure Deutschland GmbH
IMS Röntgensysteme GmbH-Firmenlogo
Entwicklungsingenieur (m/w/i) für digitale Inspektionssysteme IMS Röntgensysteme GmbH
Heiligenhaus Zum Job 
TGM Kanis Turbinen GmbH-Firmenlogo
Vertriebsingenieur (m/w/d) Bereich Service TGM Kanis Turbinen GmbH
Nürnberg Zum Job 
ENGIE Deutschland GmbH-Firmenlogo
Sales Manager (m/w/d) Energieeffizienzprojekte ENGIE Deutschland GmbH
Stuttgart, Köln, Frankfurt Zum Job 
HygroMatik GmbH-Firmenlogo
Junior Entwicklungsingenieur für Hard- und Softwarelösungen (m/w/d) HygroMatik GmbH
Henstedt-Ulzburg Zum Job 
HAMBURG WASSER-Firmenlogo
Ingenieur für Automatisierungstechnik Wasserwerke (m/w/d) HAMBURG WASSER
Hamburg-Rothenburgsort Zum Job 
Bundesbau Baden-Württemberg-Firmenlogo
Trainees Bundesbau Baden-Württemberg (w/m/d) Bundesbau Baden-Württemberg
verschiedene Standorte Zum Job 
Birkenstock Productions Hessen GmbH-Firmenlogo
Verantwortliche Elektrofachkraft (m/w/d) Birkenstock Productions Hessen GmbH
Steinau-Uerzell Zum Job 
TenneT TSO GmbH-Firmenlogo
Elektroingenieur für die Planung und Sicherstellung der europäischen Stromversorgung (m/w/d) TenneT TSO GmbH

Software QuadAttack testet KI-Systeme auf Problembereiche

Um die Anfälligkeit von tiefen neuronalen Netzen auf Angriffe zu testen, entwickelten die Forschenden eine Software namens QuadAttacK. „Wenn man ein trainiertes KI-System hat und es mit sauberen Daten testet, verhält sich das KI-System im Grunde wie vorhergesagt. QuadAttacK beobachtet diese Vorgänge und lernt, wie die künstliche Intelligenz Entscheidungen im Zusammenhang mit den Daten trifft“, erklärt Wu die Funktionsweise der Software.

So würde diese erkennen, worin potenzielle Schwachstellen des KI-Systems bestehen. QuadAttacK beginnt daraufhin, manipulierte Daten an das KI-System zu senden, um zu sehen, wie es darauf reagiert. Getestet wurden vier tiefe neuronale Netze, die auf der ganzen Welt weit verbreitet sind: Zwei faltbare neuronale Netze (ResNet-50 und Dense Net-121) und zwei Vision-Transformer (ViT-B und DEiT-S). Die Forschenden stellten dabei fest, dass alle vier Netzwerke sehr anfällig für Angriffe sind. „Darüber hinaus haben wir herausgefunden, dass Angreifer diese Schwachstellen ausnutzen können, um die KI zu zwingen, die Daten so zu interpretieren, wie sie es wollen“, sagt Wu. Solche Sicherheitslücken in KI-Systemen können verheerende Folgen haben. Die Software QuadAttack bietet eine Möglichkeit, KI-Systeme vor ihrem Einsatz auf solche Schwachstellen zu prüfen.

Voraussetzung für den sicheren Einsatz von KI

Für den bedenkenlosen Einsatz von KI-Systemen müssen Entwickler sicherstellen können, dass die KI macht, was sie soll. Und dafür ist es wichtig, nachvollziehen und erklären zu können, wieso die künstliche Intelligenz diese oder jene Entscheidung trifft. Bislang ist das nur eingeschränkt möglich. Auch gibt es noch keine allgemeingültigen Nachweismodelle für die Sicherheit von KI-Systemen. Diese sind jedoch eine Grundvoraussetzung für die Zulassung selbstfahrender Fahrzeuge. Für den sicheren Einsatz von autonomen Systemen, müssen also zunächst Wege gefunden werden, Unsicherheiten der künstlichen Intelligenz quantifizierbar zu machen, um mögliche Schwachstellen zu finden und zu beseitigen. An diesem Punkt steht auch Professor Wu: „Jetzt, da wir diese Schwachstellen besser identifizieren können, ist der nächste Schritt, Wege zu finden, diese Schwachstellen zu minimieren. Wir haben bereits einige potenzielle Lösungen – aber die Ergebnisse dieser Arbeit stehen noch aus.“

Damit die gesamte Forschungsgemeinschaft neuronale Netze auf Schwachstellen testen kann, heben die Forschenden der North Carolina State University QuadAttacK öffentlich zugänglich gemacht.

Ein Beitrag von:

  • Ines Klawonn

    Ines Klawonn

    Ines Klawonn hat als Redakteurin bei einem auf Energiekommunikation spezialisierten Medienunternehmen gearbeitet. Mittlerweile ist sie selbstständige Journalistin und gehört zum Team von Content Qualitäten. Ihre Themenschwerpunkte sind Gesundheit, Energie und Technik.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.