Whistleblower reichen Bericht ein 15.07.2024, 12:18 Uhr

Durften OpenAI-Mitarbeiter nicht auf Gefahren von ChatGPT hinweisen?

Durften Mitarbeiter von OpenAI nicht auf potenziale Gefahren von ChatGPT hinweisen? Whistleblower haben US-Börsenaufsichtsbehörde informiert.

ChatGPT

Von ChatGPT gehen auch Gefahren, OpenAI-Mitarbeiter durften darüber laut Arbeitsvertrag jedoch scheinbar nichts sagen.

Foto: PantherMedia / niphon

OpenAI, das Unternehmen hinter dem KI-Chatbot ChatGPT, sieht sich neuen schweren Vorwürfen ausgesetzt. Laut einigen Whistleblowern soll das Unternehmen seine Mitarbeiter daran gehindert haben, die potenziellen Gefahren der Technologie öffentlich zu machen. Diese Behauptungen wurden in einem Bericht an die US-Börsenaufsichtsbehörde Securities and Exchange Commission (SEC) eingereicht.

Ein siebenseitiges Dokument, das der Washington Post vorliegt, enthält detaillierte Anschuldigungen gegen OpenAI. Darin wird behauptet, das Unternehmen habe seine Mitarbeitenden mit übermäßig restriktiven Beschäftigungs-, Abfindungs- und Geheimhaltungsvereinbarungen unter Druck gesetzt. Diese Vereinbarungen hätten dazu führen können, dass Mitarbeitende bestraft würden, wenn sie Bedenken über OpenAI gegenüber Bundesbehörden äußern würden.

Restriktive Vereinbarungen für OpenAI-Mitarbeiter

Laut dem Bericht wurden die Mitarbeiter gezwungen, Vereinbarungen zu unterzeichnen, die sie verpflichteten, auf ihre Rechte auf Entschädigung als Whistleblower zu verzichten. Diese Vereinbarungen verlangten zudem, dass die Mitarbeitenden die vorherige Zustimmung des Unternehmens einholen mussten, bevor sie Informationen an Bundesbehörden weitergeben durften. Diese Maßnahmen hinderten die Mitarbeitenden effektiv daran, Sicherheitsverstöße oder andere Bedenken zu melden.

Der Brief an den SEC-Vorsitzenden Gary Gensler weist darauf hin, dass solche Vereinbarungen sowohl die Mitarbeitenden als auch die Investoren daran hindern, sich gegenüber Bundesbehörden zu äußern. Dies stellt nicht nur ein ethisches Problem dar, sondern verstößt auch gegen das Gesetz.

Stellenangebote im Bereich Softwareentwicklung

Softwareentwicklung Jobs
TotalEnergies-Firmenlogo
Koordinator (m/w/d) Inbetriebnahme und Qualität TotalEnergies
Berlin, München Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Staatlich geprüfter Techniker (w/m/d) Informationstechnik & Verkehrsüberwachung Die Autobahn GmbH des Bundes
Hohen Neuendorf bei Berlin Zum Job 
Die Autobahn GmbH des Bundes-Firmenlogo
Staatlich geprüfter Techniker (w/m/d) Elektrotechnik & Verkehrsüberwachung Die Autobahn GmbH des Bundes
Münchener Rückversicherungs-Gesellschaft Aktiengesellschaft in München-Firmenlogo
Underwriter Downstream / Energy (m/f/d)* Münchener Rückversicherungs-Gesellschaft Aktiengesellschaft in München
München Zum Job 
AECOM Deutschland GmbH-Firmenlogo
Electrical Engineer (m/w/d) AECOM Deutschland GmbH
Frankfurt Zum Job 
naturenergie netze GmbH-Firmenlogo
Meister / Techniker (m/w/d) Leit- und Fernwirktechnik naturenergie netze GmbH
Donaueschingen, Rheinfelden (Baden) Zum Job 
Bau- und Liegenschaftsbetrieb NRW-Firmenlogo
Ingenieurinnen / Ingenieure bzw. Technikerinnen / Techniker oder Meisterinnen / Meister der Elektrotechnik (w/m/d) Bau- und Liegenschaftsbetrieb NRW
Münster Zum Job 
Stadtwerke Südholstein GmbH-Firmenlogo
Ingenieur der Elektro- oder Energietechnik als Leiter Planung und Netzbetrieb Strom (m/w/d) Stadtwerke Südholstein GmbH
Pinneberg Zum Job 
Friotherm Deutschland GmbH-Firmenlogo
Elektrotechniker / Elektrokonstrukteur (m/w/d) Friotherm Deutschland GmbH
Weißensberg Zum Job 
Stuttgart Netze GmbH-Firmenlogo
Ingenieur Planung Straßenbeleuchtung (w/m/d) Stuttgart Netze GmbH
Stuttgart Zum Job 
Stuttgart Netze GmbH-Firmenlogo
Ingenieur Baukoordination und Qualitätssicherung (w/m/d) Stuttgart Netze GmbH
Stuttgart Zum Job 
Stuttgart Netze GmbH-Firmenlogo
Ingenieur Projektierung Netze Strom / Gas (w/m/d) Stuttgart Netze GmbH
Stuttgart Zum Job 
VIAVI-Firmenlogo
Product Development Program Manager (4G/5G, RAN & Core) (m/w/d) VIAVI
Eningen Zum Job 
VIAVI-Firmenlogo
Senior / Software Engineer (C++, Python & Cloud) (m/w/d) VIAVI
Eningen Zum Job 
VIAVI-Firmenlogo
Solutions Engineer (m/w/d) VIAVI
Eningen Zum Job 
Klinikverbund Südwest-Firmenlogo
Strahlenschutzbeauftragter (m/w/d) Klinikverbund Südwest
Sindelfingen Zum Job 
Klinikverbund Südwest-Firmenlogo
Strahlenschutzbeauftragter (m/w/d) Klinikverbund Südwest
Sindelfingen Zum Job 
Ferrotec Europe GmbH-Firmenlogo
Account Manager Thermistoren Automotive (m/w/d) Ferrotec Europe GmbH
Frankfurt, Unterensingen, Home-Office Zum Job 
Adolf Würth GmbH & Co. KG-Firmenlogo
Elektroingenieur (m/w/d) Fahrzeugeinrichtung Adolf Würth GmbH & Co. KG
Obersulm-Willsbach Zum Job 
RHEINMETALL AG-Firmenlogo
Verstärkung für unsere technischen Projekte im Bereich Engineering und IT (m/w/d) RHEINMETALL AG
deutschlandweit Zum Job 

Geldstrafen und andere Maßnahmen möglich

Die US-Börsenaufsichtsbehörde hat bereits klargestellt, dass Privatunternehmen, die sich solcher Praktiken bedienen, gegen das Gesetz verstoßen. Solche Unternehmen müssen mit Geldstrafen und anderen Durchsetzungsmaßnahmen rechnen. Der Bericht betont die Dringlichkeit, dass Mitarbeitende in der Lage sein müssen, sich an Bundesbehörden zu wenden, um Beschwerden vorzubringen oder Bedenken zu äußern. Das gelte insbesondere angesichts der Risiken, die mit der Weiterentwicklung der KI-Technologie verbunden sind.

Es wird weiterhin betont, dass Unternehmen wie OpenAI die Rechtswidrigkeit ihrer Geheimhaltungsvereinbarungen verstehen und sicherstellen müssen, dass ihre Arbeitsplatzkultur Mitarbeiter ermutigt, Bedenken zu äußern. Dies gilt selbst dann, wenn solche Äußerungen die Rentabilität des Unternehmens beeinträchtigen könnten.

Reaktion von OpenAI

Hannah Wong, Sprecherin von OpenAI, reagierte auf die Vorwürfe und erklärte, dass die Whistleblower-Politik des Unternehmens das Recht der Mitarbeiter auf Offenlegung von Informationen schütze. Sie betonte, dass eine rigorose Debatte über diese Technologie unerlässlich sei und dass OpenAI bereits wichtige Änderungen an ihrem Kündigungsprozess vorgenommen habe, um Verunglimpfungsbestimmungen zu entfernen.

Der Brief fordert die SEC auf, rasche und aggressive Schritte zu unternehmen, um die Regel 21F-17(a) im KI-Sektor durchzusetzen und sicherzustellen, dass es keine Verstöße gibt. Senator Grassley, dessen Büro den Brief von den Whistleblowern erhielt, betonte die Verantwortung der Bundesbehörden. Es sei ihre Aufgabe, die erheblichen Risiken, die von KI ausgehen, zu mindern. Er äußerte sich besorgt über die Praktiken von OpenAI, die das Recht von Whistleblowern einschränken könnten, ihre Meinung zu äußern und eine angemessene Entschädigung für ihre geschützten Enthüllungen zu erhalten.

Gefahren von ChatGPT

ChatGPT existiert bereits seit 2018, hat aber erst in den letzten Monaten bei uns große Bekanntheit erlangt und ist seitdem in aller Munde. Die Bewertung der Chancen und Risiken im geschäftlichen Umfeld ist insbesondere im Hinblick auf Informationssicherheit und Datenschutz von großer Bedeutung. Unternehmen müssen sich Fragen stellen wie: „Was geschieht mit den Informationen, die im Eingabedialog verwendet werden?“ und „Welche Möglichkeiten ergeben sich für das Unternehmen durch den Einsatz des Bots?“

Diese Fragen erfordern gründliche Überlegungen und Antworten. Hier ein Überblick über die größten Risiken beim Einsatz von ChatGPT:

  • Datenschutz und Informationssicherheit: Sensible Informationen, wie personenbezogene Daten oder Betriebsgeheimnisse, könnten in die falschen Hände geraten. Die eingegebenen Daten könnten bei späteren Anfragen anderer Nutzer wiederverwendet und dadurch ungewollt offengelegt werden.
  • Cyberangriffe: Beim Einsatz von ChatGPT zur Softwareentwicklung besteht die Gefahr, dass fehlerhafter oder sogar schädlicher Code eingeschleust wird. Solcher Schadcode könnte absichtlich von Angreifern genutzt werden.
  • Urheberrechtsverletzungen: Die von ChatGPT bereitgestellten Informationen stammen aus unbekannten Quellen und werden oft ungeprüft verwendet. Diese Informationen könnten urheberrechtlich geschützt sein, was zu rechtlichen Problemen führen kann.
  • Reputationsrisiko: Die generierten Antworten oder Ergebnisse könnten falsch sein und ungeprüft übernommen werden. Dies kann das Ansehen eines Unternehmens gefährden, wenn sich herausstellt, dass die Informationen fehlerhaft sind.
  • Wissenslücken: Ein Chatbot kann nicht auf alle Fragen eine Antwort finden. Diese Ungewissheit kann zu Problemen führen, wenn notwendige Informationen fehlen.

Eine im Dezember 2023 auf dem Preprint-Server arXiv veröffentlichte Studie zeigt, dass GPT-3 bei über 1.200 Aussagen, die Fakten, Verschwörungstheorien, falsche Vorstellungen und Fiktion umfassten, bis zu 26 Prozent der falschen Behauptungen zustimmte. Dies deutet darauf hin, dass das KI-System Schwierigkeiten hat, konsistent zwischen Wahrheit und Fiktion zu unterscheiden. Ob diese Ergebnisse auch auf GPT-4 übertragbar sind, ist unklar. Laut den Studienautoren unter der Leitung von Daniel G. Brown, Professor an der University of Waterloo, bestätigte ChatGPT falsche Behauptungen, darunter Stereotype, Verschwörungstheorien und verbreitete Irrtümer.

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.