ChatGPT vs. Datenschutz: Kann der Chatbot auch in Deutschland verboten werden?
ChatGPT hat sich schnell zu einem unersetzlichen Helfer bei diversen Berufen etabliert. Nun fällt es schwer, auf die KI-Unterstützung zu verzichten. In Italien ist es schon verboten. Wie reagiert Deutschland?
Die Datenschutzbehörde in Italien hat vorläufig den beliebten Text-Generator ChatGPT im Land blockiert. Der Grund dafür ist, dass der Betreiber OpenAI unzureichende Informationen über die Verwendung von Daten bereitgestellt hat, wie die Behörde am Freitag bekannt gab. Ein weiterer Grund für die Sperrung ist das Fehlen von Filtern, die verhindern, dass Kinder unter 13 Jahren für sie ungeeignete Informationen angezeigt bekommen. Es wurde eine Untersuchung eingeleitet, um diese Angelegenheit zu klären.
Mit anderen Worten: ChatGPT kann in Italien nicht mehr verwendet werden. Dem Betreiber OpenAI wurde eine Frist von 20 Tagen eingeräumt, um Maßnahmen gegen die Vorwürfe zu ergreifen. Andernfalls droht eine Strafe von bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes.
Was wird ChatGPT vorgeworfen?
Die Datenschutzbehörde wies auch auf eine kürzlich aufgetretene Datenschutzpanne hin, bei der Nutzer von ChatGPT teilweise Informationen aus fremden Profilen angezeigt bekamen. OpenAI erklärte, dass dieses Problem auf einen Fehler in der für ChatGPT verwendeten Software zurückzuführen sei.
ChatGPT trifft anhand einer enormen Menge an Texten Vorhersagen darüber, welche Worte als nächstes in einem Satz folgen könnten. Daraus werden Texte generiert. Dies könnte auch das Risiko erhöhen, dass die KI „Fakten halluziniert“ und falsche Informationen als korrekt wiedergibt.
Zudem haben italienische Datenschützer das Trainingsverfahren von ChatGPT kritisiert und sehen dabei keine rechtliche Grundlage für die massenhafte Sammlung und Speicherung personenbezogener Daten zur Algorithmusentwicklung.
Obwohl ChatGPT in den vergangenen Monaten beeindruckende Ergebnisse erzielt hat, gibt es Bedenken, dass solche Technologien missbraucht werden könnten, um falsche Informationen zu verbreiten.
Offener Brief mit Forderung nach Forschungsstopp der KI
Es gibt tatsächlich viele Fragen zu klären. Darüber hinaus kursiert im Internet ein offener Brief. Rund 3.000 Unterzeichner*innen des offenen Briefs aus Wirtschaft und Wissenschaft aus aller Welt sind sogar der Meinung, dass die Entwicklung Künstlicher Intelligenz außer Kontrolle geraten sei. Sie fordern eine Pause beim Training besonders leistungsfähiger KI-Systeme, da sie schwerwiegende Risiken für die Gesellschaft und die Menschheit darstellen können. Für mindestens sechs Monate sollen keine Technologien entwickelt werden, die leistungsfähiger sind als das kürzlich vorgestellte GPT-4-Modell, das den Vorgänger ChatGPT ablöst. In dieser Zeit sollten Sicherheitsregeln eingeführt werden.
„Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiert wäre. Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass sie in jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel allerdings nicht“, kommentierte Prof. Urs Gasser, Experte für die Governance digitaler Technologien an der Technischen Universität München (TUM). Dabei wies er auf einige Punkte hin, die bei dieser Frage zu beachten sind.
„Erstens malt der offene Brief erneut das Schreckgespenst einer menschenähnlichen Künstlichen Intelligenz an die Wand, einer sogenannten Artificial General Intelligence. Das lenkt von einer ausgewogenen Diskussion der Risiken und Chancen derjenigen Technologien ab, die derzeit auf den Markt kommen“, sagte der Professor. Zweitens bezieht sich das Papier auf zukünftige Nachfolgemodelle von GPT-4. „Das lenkt davon ab, dass uns schon der Vorgänger ChatGPT vor wesentliche Probleme stellt, die wir dringend angehen sollten – beispielsweise Falschinformationen oder Vorurteile, welche die Maschinen replizieren und groß skalieren. Und drittens lenkt die spektakuläre Forderung davon ab, dass wir bereits jetzt Instrumente zur Hand haben, mit denen wir die Entwicklung und den Einsatz von KI regulieren können“.
Wie sieht es in Deutschland aus?
„Der BfDI (Bundesbeauftragte für den Datenschutz und die Informationsfreiheit – Anm. der Red.) arbeitet mit der italienischen Datenschutzaufsichtsbehörde Il Garante sehr eng zusammen. Wir haben sie zur Sperrung von ChatGPT bereits um weiterführende Informationen gebeten und werden diese dann an die zuständigen Landesdatenschutzaufsichtsbehörden und Landesmedienanstalten weitergeben“, kommentierte die Pressesprecherin Wenke Kant unsere Anfrage.
„In der Tat brauchen wir klare Spielregeln für Künstliche Intelligenz. Auf EU-Ebene wird derzeit das KI-Gesetz finalisiert, mit dem gewährleistet werden soll, dass die Technologien sicher sind und die Grundrechte wahren. Der Entwurf sieht die Einstufung von KI-Technologien nach ihrem Risiko für diese Prinzipien vor, mit der möglichen Konsequenz von Verboten oder Transparenzpflichten“, sagte Prof. Urs Gasser.
„Soweit wir das bis jetzt beurteilen können, scheint sich die Entscheidung insbesondere darauf zu stützen, dass die Betreiber von ChatGPT (OpenAI) ihren Informationspflichten nicht hinreichend nachgekommen sind, dass keine Rechtsgrundlage für die massive Erhebung und Verarbeitung personenbezogener Daten für das KI-Training ersichtlich ist, und dass am 20. März eine Datenpanne passierte, von der Nutzerkonversationen mit ChatGPT und Zahlungsinformationen von Abonnementen betroffen waren. Kritisiert wird zudem, dass scheinbar unrichtige personenbezogene Daten verarbeitet werden und Vorgaben zum Jugendschutz nicht eingehalten werden“, kommentierte Thomas Reisz, (Landesbeauftragte für Datenschutz und Informationsfreiheit Nordrhein-Westfalen). „Da in Deutschland alle Datenschutzaufsichtsbehörden der Länder für ihren Zuständigkeitsbereich ein entsprechendes Verbot aussprechen müssten, werden wir uns dazu aus arbeitsökonomischen Gründen in einem gemeinsamen Arbeitskreis abstimmen“, so er weiter. Er erklärte zudem, „dass wir – anders als die italienische Datenschutzaufsicht – nicht für Fragen des Jugendschutzes zuständig sind, die in dem Fall auch angesprochen wurden“.
ChatGPT, bist Du datenschutzkonform?
Schlussendlich geben wir das Wort dem „Angeklagten“ und fragen nach, was ChatGPT nun selbst von Datenschutz hält.
„Als KI-Modell bin ich darauf programmiert, datenschutzkonform zu agieren, insbesondere im Hinblick auf die Verarbeitung personenbezogener Daten. Ich werde von OpenAI entwickelt, einem Unternehmen, das sich verpflichtet hat, die Datenschutzbestimmungen einzuhalten und sicherzustellen, dass die von mir verarbeiteten Daten geschützt sind“, antwortete die KI.
Dabei weißt ChatGPT darauf hin, dass es wichtig sei, dass auch diejenigen, die ChatGPT nutzen, sicherstellen, dass sie datenschutzkonform handeln. „Beispielsweise sollten sie sicherstellen, dass alle Daten, die ich verarbeite, auf rechtmäßige Weise gesammelt und verarbeitet werden, und dass angemessene technische und organisatorische Maßnahmen ergriffen werden, um die Daten zu schützen“, kommentierte die KI.
Werden Geschäftsgeheimnisse preisgegeben?
„Wer im Internet neueste Anwendungen der Künstlichen Intelligenz ausprobiert, sollte mit der Preisgabe sensibler eigener Daten vorsichtig sein“, rät auch der Potsdamer Informatik-Professor Christoph Meinel. So sollten sich alle Verantwortlichen bewusst sein, dass man mit den eigenen Anfragen und Daten gratis die KI-Modelle der Anbieter trainiere und schlau mache. Lädt man interne Finanzdaten auf bestimmte Plattformen hoch, damit daraus automatisch eine Präsentation hergestellt wird, müsste man gleichzeitig im Kopf behalten, dass dabei möglicherweise auch Geschäftsgeheimnisse preisgegeben werden.
Ein Beitrag von: