Durften OpenAI-Mitarbeiter nicht auf Gefahren von ChatGPT hinweisen?
Durften Mitarbeiter von OpenAI nicht auf potenziale Gefahren von ChatGPT hinweisen? Whistleblower haben US-Börsenaufsichtsbehörde informiert.
OpenAI, das Unternehmen hinter dem KI-Chatbot ChatGPT, sieht sich neuen schweren Vorwürfen ausgesetzt. Laut einigen Whistleblowern soll das Unternehmen seine Mitarbeiter daran gehindert haben, die potenziellen Gefahren der Technologie öffentlich zu machen. Diese Behauptungen wurden in einem Bericht an die US-Börsenaufsichtsbehörde Securities and Exchange Commission (SEC) eingereicht.
Ein siebenseitiges Dokument, das der Washington Post vorliegt, enthält detaillierte Anschuldigungen gegen OpenAI. Darin wird behauptet, das Unternehmen habe seine Mitarbeitenden mit übermäßig restriktiven Beschäftigungs-, Abfindungs- und Geheimhaltungsvereinbarungen unter Druck gesetzt. Diese Vereinbarungen hätten dazu führen können, dass Mitarbeitende bestraft würden, wenn sie Bedenken über OpenAI gegenüber Bundesbehörden äußern würden.
Restriktive Vereinbarungen für OpenAI-Mitarbeiter
Laut dem Bericht wurden die Mitarbeiter gezwungen, Vereinbarungen zu unterzeichnen, die sie verpflichteten, auf ihre Rechte auf Entschädigung als Whistleblower zu verzichten. Diese Vereinbarungen verlangten zudem, dass die Mitarbeitenden die vorherige Zustimmung des Unternehmens einholen mussten, bevor sie Informationen an Bundesbehörden weitergeben durften. Diese Maßnahmen hinderten die Mitarbeitenden effektiv daran, Sicherheitsverstöße oder andere Bedenken zu melden.
Der Brief an den SEC-Vorsitzenden Gary Gensler weist darauf hin, dass solche Vereinbarungen sowohl die Mitarbeitenden als auch die Investoren daran hindern, sich gegenüber Bundesbehörden zu äußern. Dies stellt nicht nur ein ethisches Problem dar, sondern verstößt auch gegen das Gesetz.
Geldstrafen und andere Maßnahmen möglich
Die US-Börsenaufsichtsbehörde hat bereits klargestellt, dass Privatunternehmen, die sich solcher Praktiken bedienen, gegen das Gesetz verstoßen. Solche Unternehmen müssen mit Geldstrafen und anderen Durchsetzungsmaßnahmen rechnen. Der Bericht betont die Dringlichkeit, dass Mitarbeitende in der Lage sein müssen, sich an Bundesbehörden zu wenden, um Beschwerden vorzubringen oder Bedenken zu äußern. Das gelte insbesondere angesichts der Risiken, die mit der Weiterentwicklung der KI-Technologie verbunden sind.
Es wird weiterhin betont, dass Unternehmen wie OpenAI die Rechtswidrigkeit ihrer Geheimhaltungsvereinbarungen verstehen und sicherstellen müssen, dass ihre Arbeitsplatzkultur Mitarbeiter ermutigt, Bedenken zu äußern. Dies gilt selbst dann, wenn solche Äußerungen die Rentabilität des Unternehmens beeinträchtigen könnten.
Reaktion von OpenAI
Hannah Wong, Sprecherin von OpenAI, reagierte auf die Vorwürfe und erklärte, dass die Whistleblower-Politik des Unternehmens das Recht der Mitarbeiter auf Offenlegung von Informationen schütze. Sie betonte, dass eine rigorose Debatte über diese Technologie unerlässlich sei und dass OpenAI bereits wichtige Änderungen an ihrem Kündigungsprozess vorgenommen habe, um Verunglimpfungsbestimmungen zu entfernen.
Der Brief fordert die SEC auf, rasche und aggressive Schritte zu unternehmen, um die Regel 21F-17(a) im KI-Sektor durchzusetzen und sicherzustellen, dass es keine Verstöße gibt. Senator Grassley, dessen Büro den Brief von den Whistleblowern erhielt, betonte die Verantwortung der Bundesbehörden. Es sei ihre Aufgabe, die erheblichen Risiken, die von KI ausgehen, zu mindern. Er äußerte sich besorgt über die Praktiken von OpenAI, die das Recht von Whistleblowern einschränken könnten, ihre Meinung zu äußern und eine angemessene Entschädigung für ihre geschützten Enthüllungen zu erhalten.
Gefahren von ChatGPT
ChatGPT existiert bereits seit 2018, hat aber erst in den letzten Monaten bei uns große Bekanntheit erlangt und ist seitdem in aller Munde. Die Bewertung der Chancen und Risiken im geschäftlichen Umfeld ist insbesondere im Hinblick auf Informationssicherheit und Datenschutz von großer Bedeutung. Unternehmen müssen sich Fragen stellen wie: „Was geschieht mit den Informationen, die im Eingabedialog verwendet werden?“ und „Welche Möglichkeiten ergeben sich für das Unternehmen durch den Einsatz des Bots?“
Diese Fragen erfordern gründliche Überlegungen und Antworten. Hier ein Überblick über die größten Risiken beim Einsatz von ChatGPT:
- Datenschutz und Informationssicherheit: Sensible Informationen, wie personenbezogene Daten oder Betriebsgeheimnisse, könnten in die falschen Hände geraten. Die eingegebenen Daten könnten bei späteren Anfragen anderer Nutzer wiederverwendet und dadurch ungewollt offengelegt werden.
- Cyberangriffe: Beim Einsatz von ChatGPT zur Softwareentwicklung besteht die Gefahr, dass fehlerhafter oder sogar schädlicher Code eingeschleust wird. Solcher Schadcode könnte absichtlich von Angreifern genutzt werden.
- Urheberrechtsverletzungen: Die von ChatGPT bereitgestellten Informationen stammen aus unbekannten Quellen und werden oft ungeprüft verwendet. Diese Informationen könnten urheberrechtlich geschützt sein, was zu rechtlichen Problemen führen kann.
- Reputationsrisiko: Die generierten Antworten oder Ergebnisse könnten falsch sein und ungeprüft übernommen werden. Dies kann das Ansehen eines Unternehmens gefährden, wenn sich herausstellt, dass die Informationen fehlerhaft sind.
- Wissenslücken: Ein Chatbot kann nicht auf alle Fragen eine Antwort finden. Diese Ungewissheit kann zu Problemen führen, wenn notwendige Informationen fehlen.
Eine im Dezember 2023 auf dem Preprint-Server arXiv veröffentlichte Studie zeigt, dass GPT-3 bei über 1.200 Aussagen, die Fakten, Verschwörungstheorien, falsche Vorstellungen und Fiktion umfassten, bis zu 26 Prozent der falschen Behauptungen zustimmte. Dies deutet darauf hin, dass das KI-System Schwierigkeiten hat, konsistent zwischen Wahrheit und Fiktion zu unterscheiden. Ob diese Ergebnisse auch auf GPT-4 übertragbar sind, ist unklar. Laut den Studienautoren unter der Leitung von Daniel G. Brown, Professor an der University of Waterloo, bestätigte ChatGPT falsche Behauptungen, darunter Stereotype, Verschwörungstheorien und verbreitete Irrtümer.
Ein Beitrag von: