OpenAI wird beschuldigt, Mitarbeiteranliegen illegal mundtot gemacht zu haben

Hast du genug von der deutschen Bürokratie und Politik? 🌍🤯 Dann ist unser Kanal genau das Richtige für dich! Hier gibt's nicht nur die heißesten Krypto-News, sondern auch eine Prise Sarkasmus und Spaß! 🚀😎

👉Beitreten zu Telegramm


Als Forscher mit einem Hintergrund in Technologie und Arbeitsrecht finde ich die Vorwürfe gegen OpenAI besorgniserregend und beunruhigend. Die Anschuldigungen der Whistleblower, sie würden die Meldung von Sicherheitsbedenken durch Mitarbeiter rechtswidrig einschränken, finden bei mir angesichts meiner Erfahrung in diesem Bereich großen Anklang. Für Unternehmen, insbesondere für diejenigen, die sich mit fortschrittlichen Technologien wie KI befassen, ist es von entscheidender Bedeutung, der Transparenz Priorität einzuräumen und sich an den Whistleblower-Schutz des Bundes zu halten.


OpenAI wird von der Securities and Exchange Commission (SEC) untersucht, da Whistleblower behauptet haben, das Unternehmen habe Berichte von Mitarbeitern über Sicherheitsprobleme illegal unterdrückt.

OpenAI wird beschuldigt, Mitarbeiteranliegen illegal mundtot gemacht zu haben

In der Korrespondenz eines Whistleblowers wird behauptet, dass OpenAI seinen Mitarbeitern übermäßig restriktive Abfindungs- und Vertraulichkeitsverträge zur Verfügung gestellt habe.

Gerüchten zufolge enthielten die Bedingungen dieser Vereinbarungen Klauseln mit potenziellen Auswirkungen, wenn Mitarbeiter OpenAI den Regierungsbehörden zur Untersuchung melden würden.

In einem Brief an den SEC-Kommissar, der Anfang des Monats verschickt wurde, hieß es, dass OpenAI seine Mitarbeiter dazu gezwungen habe, ihre Berechtigung für bundesstaatliche Whistleblower-Anreize aufzugeben, und die Genehmigung des Unternehmens eingeholt habe, bevor sie Einzelheiten an die Regulierungsbehörden weitergegeben habe.

Verstoß gegen den Whistleblower-Schutz des Bundes

Die Informanten betonten, dass diese Verträge gegen Bundesgesetze verstoßen, die darauf abzielen, Personen zu schützen, die Unternehmensfehlverhalten wie Betrug aufdecken wollen, ohne dass diese ihre Identität preisgeben müssen oder mit einer Kündigung rechnen müssen.

Als Forscher, der den Einsatz von KI-Technologieverträgen untersuchte, stieß ich auf eine andere anonyme Quelle, die Bedenken hinsichtlich der möglichen Folgen dieser Vereinbarungen für die Bereitschaft der Mitarbeiter äußerte, potenzielle Gefahren im Zusammenhang mit KI-Systemen offenzulegen.

OpenAI-Sprecherin Hannah Wong sagte:

„Mitarbeiter können im Rahmen unserer Whistleblower-Richtlinie Bedenken vertraulich melden. Angesichts der Bedeutung dieses Themas sind wir der Meinung, dass es einen offenen Dialog verdient. Aus diesem Grund haben wir unsere Abgangsrichtlinien dahingehend überarbeitet, dass sie keine Abwertungsklauseln mehr enthalten.“

Wachsende Bedenken hinsichtlich der KI-Sicherheit

Kritiker äußerten Einwände gegen den jüngsten Wandel von OpenAI von einer gemeinnützigen Organisation, die sich dem Gemeinwohl verschrieben hat, zu einem umsatzorientierten Unternehmen. Das Hauptproblem liegt in der wahrgenommenen Priorisierung von Gewinnen gegenüber Sicherheitsbedenken. Darüber hinaus wurden Vorwürfe laut, OpenAI habe ein ungeprüftes neues KI-Modell veröffentlicht, ohne sich an etablierte Sicherheitsprotokolle zu halten, und dies in übereilter Weise.

Im Anschluss an diese Entwicklung wächst die Besorgnis über den potenziellen Schaden, der durch KI verursacht werden könnte, beispielsweise durch deren Einsatz bei der Herstellung biologischer Waffen oder der Durchführung von Cyberangriffen.

Senator Chuck Grassley sagte:

Es scheint, dass die Richtlinien und Verfahren von OpenAI Whistleblower davon abhalten können, Meldungen über Fehlverhalten einzureichen und eine angemessene Entschädigung für ihre geschützten Offenlegungen zu erhalten.

Grassley betonte die entscheidende Rolle, die Whistleblower bei der Unterstützung der Bundesregierung bei der Bewältigung von Risiken im Zusammenhang mit der KI-Technologie spielen.

Sam Altmans Haltung

Basierend auf dem Bericht von Coingape gab Sam Altman, der CEO von OpenAI, im Mai Erklärungen zu den Ausstiegsvereinbarungen ab, da das öffentliche Interesse an der Angelegenheit zunahm.

Mehrere Mitarbeiter, darunter auch Jan Leike, haben sich kürzlich entschieden, das Unternehmen zu verlassen. Leike behauptete, dass das Unternehmen seinen Fokus von der Gewährleistung der KI-Sicherheit auf die Priorisierung der Produktentwicklung verlagere.

Der CEO von OpenAI hat ein Missverständnis bezüglich einer Bestimmung in früheren Kündigungsdokumenten über einen möglichen Kapitalentzug korrigiert. Er betonte, dass diese Bedingung von OpenAI nie umgesetzt worden sei und versicherte, dass alle unverfallbaren Aktienoptionen unabhängig vom Ergebnis des aktuellen Vertrags sicher bleiben.

JPMorgan und Wells Fargo haben Milliarden von uneinbringlichen Schulden – werden die Feds eingreifen?

Weiterlesen

2024-07-14 03:57