TU Wien will künstliche Intelligenz garantiert rational und fair machen
Neuronale Netzwerke treffen heute viele Entscheidungen, die einst Menschen vorbehalten waren. Doch sind diese Entscheidungen wirklich rational und fair? Ein Forschungsteam der TU Wien entwickelt Methoden, um genau das sicherzustellen.
Immer mehr Entscheidungen, die bisher Menschen trafen, werden in Zukunft Maschinen übernehmen. Aber wie verlässlich sind die Entscheidungen der künstlichen Intelligenz (KI)? In sensiblen Bereichen wünschen wir uns eine Garantie dafür, dass die KI sinnvolle Antworten liefert und schwere Fehler ausschließt. An der TU Wien und dem AIT Austrian Institute of Technology hat man Methoden entwickelt, um neuronale Netzwerke auf Fairness und Sicherheit zu zertifizieren. Diese Ergebnisse wurden auf der 36th International Conference on Computer Aided Verification in Montreal vorgestellt – der wichtigsten Konferenz auf dem Gebiet der Verifikation.
KI-Entscheidungen in sensiblen Bereichen: Zuverlässigkeit garantiert?
KI neigt manchmal zu Fehlern. Während ein Bild mit sechs Fingern noch harmlos ist, sind Fehler in sicherheitskritischen Bereichen inakzeptabel. „Denken wir zum Beispiel an Entscheidungen, die von einem selbstfahrenden Auto getroffen werden – oder auch von einem Computersystem, das für medizinische Diagnostik eingesetzt wird“, erklärt Anagha Athavale vom Institut für Logic und Computation der TU Wien. Sie analysiert neuronale Netzwerke, die Eingabedaten bestimmten Kategorien zuordnen. Ob Verkehrssituation, Diagnosen in der Medizin oder Bankkundendaten – das Netz entscheidet, wann gelenkt, gebremst oder beschleunigt wird, welche Behandlung erfolgt oder ob ein Kredit vergeben werden soll.
„Nun gibt es aber zwei wichtige Eigenschaften, die wir von einem solchen neuronalen Netz verlangen“, erklärt Anagha Athavale. „Nämlich Robustheit und Fairness.“ Ein robustes Netz liefert bei minimal unterschiedlichen Eingaben dasselbe Ergebnis. Fairness bedeutet, dass Unterschiede in irrelevanten Parametern, wie Geschlecht oder Ethnizität, das Ergebnis nicht beeinflussen dürfen. „Stellen wir uns zum Beispiel vor, ein neuronales Netz soll die Kreditwürdigkeit einschätzen“, sagt Anagha Athavale. „Zwei Personen haben finanziell sehr ähnliche Daten, unterscheiden sich aber im Geschlecht oder in der Ethnizität. Das sind Parameter, die auf die Kreditvergabe keinen Einfluss haben sollten. Das System sollte somit also in beiden Fällen dasselbe Ergebnis liefern.“
Herausforderungen der KI-Verifikation
Die Verifizierungstechniken konzentrieren sich meist auf lokale Definitionen von Fairness und Robustheit. Athavale erklärt: „Wenn man diese Eigenschaften auf lokaler Ebene untersucht, dann überprüft man für einen ganz bestimmten Input, ob kleine Abweichungen zu abweichenden Ergebnissen führen. Wir wollen aber eigentlich globale Eigenschaften definieren. Wir wollen garantieren, dass ein neuronales Netz immer diese Eigenschaften aufweist, ganz unabhängig von der Eingabe“.
Dies erfordert jedoch eine umfassende Überprüfung aller möglichen Eingaben, was zeitaufwändig ist. Deshalb entwickelte Athavale mathematische Tricks, um das Verhalten des Netzes zuverlässig abzuschätzen und dennoch strenge Aussagen über das gesamte Netz zu treffen. Athavale betont, dass die neue Methode auf Vertrauen basiert: „Unser Verifizierungs-Tool prüft das neuronale Netz nicht nur auf bestimmte Eigenschaften, sondern es gibt auch Auskunft über den Grad des Vertrauens: Genau an der Grenze zwischen zwei Kategorien ist das Vertrauen gering. Dort ist es völlig in Ordnung, wenn leicht unterschiedliche Eingaben zu unterschiedlichen Ergebnissen führen. In anderen Regionen des Eingaberaums ist das Vertrauen hoch, und die Ergebnisse sind insgesamt robust.“
Neue Wege zur globalen Analyse neuronaler Netze
Die neue Methode, die auf Vertrauen basiert, stellt eine bedeutende Veränderung in der Definition globaler Eigenschaften von neuronalen Netzwerken dar. „Um ein neuronales Netz global zu analysieren, müssen wir allerdings alle möglichen Eingaben überprüfen – und das ist sehr zeitaufwändig“, sagt Anagha Athavale. Um dieses Problem zu lösen, entwickelte sie innovative mathematische Ansätze. Diese Methoden ermöglichen eine zuverlässige Abschätzung des Netzwerkverhaltens ohne den Einsatz rechenintensiver mathematischer Funktionen, die normalerweise in neuronale Netze integriert sind.
Athavale schuf Vereinfachungen, die dennoch strenge und zuverlässige Aussagen über das gesamte Netzwerk ermöglichen. Der Erfolg dieser Methode zeigt, dass es nicht notwendig ist, einer künstlichen Intelligenz blind zu vertrauen – besonders bei wichtigen Entscheidungen. Es ist technisch möglich, neuronale Netze gründlich zu testen und deren Eigenschaften mit mathematischer Präzision zu garantieren. Dies ist ein wichtiger Schritt für die zukünftige Zusammenarbeit von Mensch und Maschine.
Ein Beitrag von: