Künstliche Intelligenz: Forscher schützen Patienten mit einer genialen Idee
In der Medizin von morgen gelten Anwendungen der künstlichen Intelligenz als großer Zukunftstrend. Doch viele Patienten haben Angst um ihre Daten. TUM-Experten präsentieren jetzt eine praxistaugliche Lösung.
Zahlreiche Studien zeigen, dass künstliche Intelligenz (KI) Ärzte bei unzähligen Aufgaben unterstützen kann, speziell bei der Diagnostik. Algorithmen werten Bilddaten aus. Sie erkennen Auffälligkeiten schneller, teilweise aber auch genauer als medizinische Fachkräfte. Vor allem bei Routineaufgaben könnten sie Angestellte im Gesundheitsbereich entlasten, damit diese mehr Zeit für wichtigere Tätigkeiten haben.
Dem steht jedoch ein entscheidender Nachteil gegenüber. Algorithmen der künstlichen Intelligenz arbeiten mit Patientendaten, einem besonders schützenswerten Gut. Erkrankte lehnen die externe Verarbeitung ihrer Informationen teilweise ab. Was lässt sich dagegen tun? Forscher der Technischen Universität München (TUM) zeigen, wie die Privatsphäre der Patienten trotz innovativer Diagnostik erhalten bleibt.
Künstliche Intelligenz in KMU: Erfolgsfaktoren für KI und Data Mining in der Produktion
Training von Algorithmen der künstlichen Intelligenz – ein Datenschutz-Problem
Zum Hintergrund: Künstliche Intelligenz ist ein Teilgebiet der Informatik. Es arbeitet auf Grundlage des maschinellen Lernens. Bei jedem Projekt benötigt man im ersten Schritt umfangreiche Testdaten. Das sind beispielsweise unterschiedliche Computertomographien inklusive medizinischer Beurteilungen und Diagnosen. Der Algorithmus „lernt“ anhand des Datensatzes, beispielsweise einen Tumor von Bindegewebe zu unterscheiden. Je besser und umfangreicher die Testdaten sind, desto leistungsfähiger ist später auch der Algorithmus.
Genau hier traten in der Praxis Schwierigkeiten auf. Denn Krankenhäuser haben bislang Daten von Patienten getauscht, um Anwendungen der künstlichen Intelligenz zu trainieren. Um Datenschutz zu gewährleisten, kamen zwei Verfahren zum Einsatz. Bei der Anonymisierung entfernt man personenbezogene Bestandteile des Datensatzes. Eine Rückverfolgung ist nicht mehr oder nur mit einem unverhältnismäßig großen Aufwand möglich. Im Unterschied dazu vergeben Ärzte bei der Pseudonymisierung Identifikationsmerkmale in Form von Pseudonymen, also Buchstaben-Zahlen-Kombinationen.
„Es hat sich in der Vergangenheit mehrfach gezeigt, dass diese Vorgehensweisen keinen ausreichenden Schutz für die Gesundheitsdaten von Patientinnen und Patienten bieten“, kommentiert Daniel Rückert. Er ist Alexander-von-Humboldt-Professor für Artificial Intelligence in Healthcare and Medicine an der Technischen Universität München.
Kritik am Regulierungsentwurf: KI ist nicht automatisch ein Hochrisiko
Pilotprojekt mit Röntgenbildern
Deshalb haben Rückert und seine Kollegen ein Verfahren entwickelt, um die Privatsphäre von Patientendaten zu wahren. Bei ihrem Pilotprojekt ging es darum, eine Lungenentzündung bei Kindern anhand von Röntgenbildern rasch zu diagnostizieren.
Ärzte fertigen Aufnahmen wie bisher in der Kinderklink an. Diese Daten verlassen – anderes als zuvor – das Krankenhaus aber nicht. Die Experten arbeiten vielmehr mit einem Federated Learning. Das bedeutet: Sie teilen den Algorithmus, aber nicht ihre Daten. Vor Ort wird das Programm trainiert und an die Kollegen zurückgeschickt. Besitzer der Daten verlieren zu keinem Zeitpunkt die Kontrolle darüber.
Der Schritt reichte jedoch noch nicht aus. Vielmehr kam die sichere Aggregierung als weitere Technik zum Einsatz. Algorithmen wurden zu Beginn des Projekts verschlüsselt und erst wieder nach der Trainingsphase mit allen beteiligten Krankenhäusern entschlüsselt. Bei dem Projekt ging es auch darum, Differential Privacy zu wahren. Abfragen an eine Datenbank sollen möglichst genaue Antworten liefern – bei minimalem Risiko, Personen zu identifizieren. „Schlussendlich können zwar statistische Zusammenhänge aus den Datensätzen herausgelesen werden, nicht aber die Beiträge einzelner Personen zum Datensatz,“ sagt Georgios Kaissis vom Institute for AI and Informatics in Medicine der TUM.
Nach diesen Vorarbeiten haben die Forscher ihr Modell unter Praxisbedingungen getestet. Parallel dazu bewerteten Radiologen mit entsprechender Erfahrung alle Bilder. Algorithmen aus der künstlichen Intelligenz hatten eine vergleichbare, teilweise sogar höhere Genauigkeit als Ärzte, um Lungenentzündungen zu erkennen. Durch die Zusammenarbeit von Radiologen und Informatikern ist es erstmals gelungen, Algorithmen mit hohem Anspruch an den Datenschutz zu entwickeln und unter Alltagsbedingungen zu evaluieren.
Rückenwind für die Forschung durch künstliche Intelligenz
In der Anwendung innovativer Datenschutz-Techniken auf Algorithmen steckt noch mehr. Kaissis, Rückert und Kollegen hoffen auf mehr Rückenwind für die klinische Forschung. Wird die Privatsphäre geschützt, lassen sich ethische und rechtliche Hürden leichter nehmen als zuvor: ein Pluspunkt bei schwierigen Projekten wie der Erforschung seltener Krankheiten. Gibt es weltweit nur wenige hundert bis tausend Patienten, ist es wichtig, möglichst viele Menschen zu erreichen. Solche Studien werden weltweit angelegt; bislang scheiterten Projekte mitunter am Datenschutz.
Mehr zu künstlicher Intelligenz in der Medizin
Ein Beitrag von: