Whistleblower reichen Bericht ein 15.07.2024, 12:18 Uhr

Durften OpenAI-Mitarbeiter nicht auf Gefahren von ChatGPT hinweisen?

Durften Mitarbeiter von OpenAI nicht auf potenziale Gefahren von ChatGPT hinweisen? Whistleblower haben US-Börsenaufsichtsbehörde informiert.

ChatGPT

Von ChatGPT gehen auch Gefahren, OpenAI-Mitarbeiter durften darüber laut Arbeitsvertrag jedoch scheinbar nichts sagen.

Foto: PantherMedia / niphon

OpenAI, das Unternehmen hinter dem KI-Chatbot ChatGPT, sieht sich neuen schweren Vorwürfen ausgesetzt. Laut einigen Whistleblowern soll das Unternehmen seine Mitarbeiter daran gehindert haben, die potenziellen Gefahren der Technologie öffentlich zu machen. Diese Behauptungen wurden in einem Bericht an die US-Börsenaufsichtsbehörde Securities and Exchange Commission (SEC) eingereicht.

Ein siebenseitiges Dokument, das der Washington Post vorliegt, enthält detaillierte Anschuldigungen gegen OpenAI. Darin wird behauptet, das Unternehmen habe seine Mitarbeitenden mit übermäßig restriktiven Beschäftigungs-, Abfindungs- und Geheimhaltungsvereinbarungen unter Druck gesetzt. Diese Vereinbarungen hätten dazu führen können, dass Mitarbeitende bestraft würden, wenn sie Bedenken über OpenAI gegenüber Bundesbehörden äußern würden.

Restriktive Vereinbarungen für OpenAI-Mitarbeiter

Laut dem Bericht wurden die Mitarbeiter gezwungen, Vereinbarungen zu unterzeichnen, die sie verpflichteten, auf ihre Rechte auf Entschädigung als Whistleblower zu verzichten. Diese Vereinbarungen verlangten zudem, dass die Mitarbeitenden die vorherige Zustimmung des Unternehmens einholen mussten, bevor sie Informationen an Bundesbehörden weitergeben durften. Diese Maßnahmen hinderten die Mitarbeitenden effektiv daran, Sicherheitsverstöße oder andere Bedenken zu melden.

Der Brief an den SEC-Vorsitzenden Gary Gensler weist darauf hin, dass solche Vereinbarungen sowohl die Mitarbeitenden als auch die Investoren daran hindern, sich gegenüber Bundesbehörden zu äußern. Dies stellt nicht nur ein ethisches Problem dar, sondern verstößt auch gegen das Gesetz.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
Die Autobahn GmbH des Bundes-Firmenlogo
Mitarbeiter Elektroanlagen (m/w/d) Die Autobahn GmbH des Bundes
München Zum Job 
Otto-von-Guericke-Universität Magdeburg-Firmenlogo
Projektingenieur*in (m/w/d) für Elektro- Fernmelde- und IT-Technik / Verantwortliche Elektrofachkraft VEFK Betriebstechnik Otto-von-Guericke-Universität Magdeburg
Magdeburg Zum Job 
degewo AG-Firmenlogo
TGA-Ingenieur / Projektmanager Technische Gebäudeausrüstung Sanierung (w/m/d) degewo AG
Schleifring GmbH-Firmenlogo
Ingenieur / Vertriebsingenieur (m/w/d) für den Bereich Key Account Schleifring GmbH
Fürstenfeldbruck Zum Job 
ONTRAS Gastransport GmbH-Firmenlogo
Projektingenieur Wasserstoff (m/w/d) ONTRAS Gastransport GmbH
Leipzig Zum Job 
Synthos Schkopau GmbH-Firmenlogo
Maintenance Engineer (m/w/d) Synthos Schkopau GmbH
Schkopau Zum Job 
aedifion-Firmenlogo
(Junior) Engineer - Smart Building (w/m/d) aedifion
Die Autobahn GmbH des Bundes-Firmenlogo
Ingenieur/in (m/w/d) für Tunnelsicherheit Die Autobahn GmbH des Bundes
Stuttgart Zum Job 
SE Tylose GmbH & Co. KG-Firmenlogo
Ingenieur der Mess- und Regeltechnik (m/w/d) für Investitionsprojekte SE Tylose GmbH & Co. KG
Wiesbaden Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 
HENN GmbH-Firmenlogo
Ingenieur*in | Technische Ausrüstung Elektrotechnik / HLSK HENN GmbH
München Zum Job 
TÜV Hessen-Firmenlogo
Sachverständiger Elektrotechnik (m/w/d) TÜV Hessen
Frankfurt am Main Zum Job 
Bundesamt für Strahlenschutz-Firmenlogo
Ingenieur*in (FH/Bachelor) (m/w/d) Elektrotechnik, Physik, Medizintechnik, Informationstechnik im "Kompetenzzentrum Elektromagnetische Felder" der Abteilung "Wirkungen und Risiken ionisierender und nichtionisierender Strahlung" Bundesamt für Strahlenschutz
Oberschleißheim (bei München) Zum Job 
Stuttgart Netze GmbH-Firmenlogo
(Junior) Ingenieur Elektrotechnik Projektierung (w/m/d) Stuttgart Netze GmbH
Stuttgart Zum Job 
VIVAVIS AG-Firmenlogo
Sales Manager Bahn (m/w/d) VIVAVIS AG
Berlin, Home-Office Zum Job 
Technische Hochschule Deggendorf-Firmenlogo
Forschungsprofessur oder Nachwuchsprofessur (m/w/d) Industrielle Robotik Technische Hochschule Deggendorf
Bundesamt für Wirtschaft und Ausfuhrkontrolle-Firmenlogo
Elektro- bzw. Informationstechnikerinnen und -techniker (w/m/d) (FH-Diplom/Bachelor) für den Bereich Exportkontrolle Bundesamt für Wirtschaft und Ausfuhrkontrolle
Eschborn Zum Job 
Kraftfahrt-Bundesamt (KBA)-Firmenlogo
Ingenieurin / Ingenieur (m/w/d) (FH-Diplom/Bachelor) für den Arbeitsbereich »Konformitätsprüfung Produkt (CoP-P)« Kraftfahrt-Bundesamt (KBA)
Dresden Zum Job 
THU Technische Hochschule Ulm-Firmenlogo
W2-Professur "Elektrische Antriebe" THU Technische Hochschule Ulm
Mercer Stendal GmbH-Firmenlogo
Ingenieur / Techniker (m/w/d) Automatisierungstechnik Mercer Stendal GmbH
Arneburg Zum Job 

Geldstrafen und andere Maßnahmen möglich

Die US-Börsenaufsichtsbehörde hat bereits klargestellt, dass Privatunternehmen, die sich solcher Praktiken bedienen, gegen das Gesetz verstoßen. Solche Unternehmen müssen mit Geldstrafen und anderen Durchsetzungsmaßnahmen rechnen. Der Bericht betont die Dringlichkeit, dass Mitarbeitende in der Lage sein müssen, sich an Bundesbehörden zu wenden, um Beschwerden vorzubringen oder Bedenken zu äußern. Das gelte insbesondere angesichts der Risiken, die mit der Weiterentwicklung der KI-Technologie verbunden sind.

Es wird weiterhin betont, dass Unternehmen wie OpenAI die Rechtswidrigkeit ihrer Geheimhaltungsvereinbarungen verstehen und sicherstellen müssen, dass ihre Arbeitsplatzkultur Mitarbeiter ermutigt, Bedenken zu äußern. Dies gilt selbst dann, wenn solche Äußerungen die Rentabilität des Unternehmens beeinträchtigen könnten.

Reaktion von OpenAI

Hannah Wong, Sprecherin von OpenAI, reagierte auf die Vorwürfe und erklärte, dass die Whistleblower-Politik des Unternehmens das Recht der Mitarbeiter auf Offenlegung von Informationen schütze. Sie betonte, dass eine rigorose Debatte über diese Technologie unerlässlich sei und dass OpenAI bereits wichtige Änderungen an ihrem Kündigungsprozess vorgenommen habe, um Verunglimpfungsbestimmungen zu entfernen.

Der Brief fordert die SEC auf, rasche und aggressive Schritte zu unternehmen, um die Regel 21F-17(a) im KI-Sektor durchzusetzen und sicherzustellen, dass es keine Verstöße gibt. Senator Grassley, dessen Büro den Brief von den Whistleblowern erhielt, betonte die Verantwortung der Bundesbehörden. Es sei ihre Aufgabe, die erheblichen Risiken, die von KI ausgehen, zu mindern. Er äußerte sich besorgt über die Praktiken von OpenAI, die das Recht von Whistleblowern einschränken könnten, ihre Meinung zu äußern und eine angemessene Entschädigung für ihre geschützten Enthüllungen zu erhalten.

Gefahren von ChatGPT

ChatGPT existiert bereits seit 2018, hat aber erst in den letzten Monaten bei uns große Bekanntheit erlangt und ist seitdem in aller Munde. Die Bewertung der Chancen und Risiken im geschäftlichen Umfeld ist insbesondere im Hinblick auf Informationssicherheit und Datenschutz von großer Bedeutung. Unternehmen müssen sich Fragen stellen wie: „Was geschieht mit den Informationen, die im Eingabedialog verwendet werden?“ und „Welche Möglichkeiten ergeben sich für das Unternehmen durch den Einsatz des Bots?“

Diese Fragen erfordern gründliche Überlegungen und Antworten. Hier ein Überblick über die größten Risiken beim Einsatz von ChatGPT:

  • Datenschutz und Informationssicherheit: Sensible Informationen, wie personenbezogene Daten oder Betriebsgeheimnisse, könnten in die falschen Hände geraten. Die eingegebenen Daten könnten bei späteren Anfragen anderer Nutzer wiederverwendet und dadurch ungewollt offengelegt werden.
  • Cyberangriffe: Beim Einsatz von ChatGPT zur Softwareentwicklung besteht die Gefahr, dass fehlerhafter oder sogar schädlicher Code eingeschleust wird. Solcher Schadcode könnte absichtlich von Angreifern genutzt werden.
  • Urheberrechtsverletzungen: Die von ChatGPT bereitgestellten Informationen stammen aus unbekannten Quellen und werden oft ungeprüft verwendet. Diese Informationen könnten urheberrechtlich geschützt sein, was zu rechtlichen Problemen führen kann.
  • Reputationsrisiko: Die generierten Antworten oder Ergebnisse könnten falsch sein und ungeprüft übernommen werden. Dies kann das Ansehen eines Unternehmens gefährden, wenn sich herausstellt, dass die Informationen fehlerhaft sind.
  • Wissenslücken: Ein Chatbot kann nicht auf alle Fragen eine Antwort finden. Diese Ungewissheit kann zu Problemen führen, wenn notwendige Informationen fehlen.

Eine im Dezember 2023 auf dem Preprint-Server arXiv veröffentlichte Studie zeigt, dass GPT-3 bei über 1.200 Aussagen, die Fakten, Verschwörungstheorien, falsche Vorstellungen und Fiktion umfassten, bis zu 26 Prozent der falschen Behauptungen zustimmte. Dies deutet darauf hin, dass das KI-System Schwierigkeiten hat, konsistent zwischen Wahrheit und Fiktion zu unterscheiden. Ob diese Ergebnisse auch auf GPT-4 übertragbar sind, ist unklar. Laut den Studienautoren unter der Leitung von Daniel G. Brown, Professor an der University of Waterloo, bestätigte ChatGPT falsche Behauptungen, darunter Stereotype, Verschwörungstheorien und verbreitete Irrtümer.

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.