Der CEO von OpenAI entschuldigt sich für die Eigenkapitalaufhebungsklausel

Hast du genug von der deutschen Bürokratie und Politik? 🌍🤯 Dann ist unser Kanal genau das Richtige für dich! Hier gibt's nicht nur die heißesten Krypto-News, sondern auch eine Prise Sarkasmus und Spaß! 🚀😎

👉Beitreten zu Telegramm


Als Krypto-Investor mit Erfahrung in der Technologiebranche verfolge ich die Entwicklungen bei OpenAI aufgrund ihres erheblichen Einflusses auf die KI-Forschung und -Technologie genau. Die jüngste Kontroverse um die Eigenkapitalaufhebungsklausel in den Ausstiegsvereinbarungen von OpenAI hat bei ehemaligen Mitarbeitern und Beobachtern Bedenken hervorgerufen.


Als Forscher, der sich mit den neuesten Entwicklungen bei OpenAI befasst, bin ich auf einiges Aufsehen im Zusammenhang mit der jüngsten Ansprache von CEO Sam Altman an die Bedenken der Mitarbeiter hinsichtlich einer umstrittenen Klausel in den Austrittsverträgen des Unternehmens gestoßen. Diese Klausel ermöglicht es OpenAI möglicherweise, unter bestimmten Umständen unverfallbares Eigenkapital bei einer Kündigung zu stornieren.

OpenAI hat sich laut Altman nie auf diese Bestimmung berufen und versichert, dass die Übertragung von Eigenkapital durch Trennungs- oder Nichtverunglimpfungsvereinbarungen unberührt bleibt.

OpenAI-Klarstellung zum unverfallbaren Eigenkapital

Als Krypto-Investor würde ich es so ausdrücken: Ich war entschieden gegen die Aufnahme dieser speziellen Klausel in die früheren Ausstiegsdokumente. Es war ein Fehler und hätte weggelassen werden sollen.

Als Forscher, der an den Operationen von OpenAI beteiligt ist, erkenne ich den Fehler an, der unter meiner Aufsicht aufgetreten ist, und übernehme die volle Verantwortung dafür. Bedauerlicherweise kommt es selten vor, dass ich mich beschämt fühle. Leider war ich mir der Situation nicht bewusst und erkenne jetzt, dass ich meiner Verantwortung nicht nachgekommen bin.

Als Krypto-Investor würde ich es so umformulieren: Ich habe den ehemaligen Mitarbeitern versichert, dass sie sich bei Bedenken bezüglich dieser Klausel persönlich an mich wenden könnten, um eine Lösung zu finden.

Die Eigenkapitalaufhebungsklausel löste bei vielen Bedenken hinsichtlich ihres beabsichtigten Verwendungszwecks und einer möglichen Fehlanwendung aus. Altman gab den Fehler zu und gab bekannt, dass das Unternehmen einen Monat zuvor seine üblichen Austrittsdokumente geändert hatte, um diese Probleme zu beheben.

Kündigungen von Mitarbeitern und Sicherheitsbedenken

Nach mehreren Abgängen, darunter dem von Jan Leike von OpenAI, wo er die Ausrichtungsbemühungen leitete, lieferte Altman weitere Erklärungen. Leike, der am 17. Mai seinen Rücktritt ankündigte, nannte als wesentlichen Faktor für seine Entscheidung eine stärkere Betonung der Produktentwicklung gegenüber der KI-Sicherheit.

in Bezug auf aktuelle Dinge darüber, wie openai mit Eigenkapital umgeht:

Im Klartext: Wir haben noch nie das erworbene Eigenkapital einer Person rückgängig gemacht oder zurückgenommen, und wir werden dies auch nicht tun, es sei denn, die Person unterschreibt eine Trennungsvereinbarung oder weigert sich, einer Vereinbarung zur Nichtverunglimpfung zuzustimmen. Das Konzept des „Vested Equity“ bleibt unverändert.

da war…

– Sam Altman (@sama), 18. Mai 2024

Ilya Sutskever, eine prominente Persönlichkeit in der KI-Forschung und eines der Gründungsmitglieder von OpenAI, war zuvor aus dem Unternehmen ausgeschieden, bevor Ihre genannte Person ihren Rücktritt einreichte.

Die internen Strategien und Prioritäten von OpenAI wurden aufgrund der jüngsten Veränderungen innerhalb der Organisation einer eingehenden Prüfung unterzogen. Kritiker argumentieren, dass OpenAI den Bedenken im Zusammenhang mit fortgeschrittenen KI-Systemen nicht ausreichend Aufmerksamkeit geschenkt hat. Zuvor hatte OpenAI sein „Superalignment“-Team aufgelöst und seine Funktionen in andere laufende Forschungsinitiativen integriert.

OpenAIs Engagement für KI-Sicherheit

Als Krypto-Investor und interessierter Beobachter der Technologiebranche ist mir aufgefallen, dass OpenAI sich trotz der Umstrukturierung weiterhin der Gewährleistung der KI-Sicherheit widmet. Der CEO Sam Altman und der Präsident Greg Brockman haben die Bedeutung der laufenden Forschung in diesem Bereich betont. In einer aktuellen Erklärung drückte Brockman seine Dankbarkeit gegenüber den ausscheidenden Mitarbeitern aus und versicherte der Öffentlichkeit, dass OpenAI weiterhin Sicherheitsbedenken priorisieren und mit großer Konsequenz angehen wird.

Brockman machte auf die Initiativen von OpenAI aufmerksam, die potenziellen Gefahren und Vorteile der künstlichen allgemeinen Intelligenz anzugehen, die globale Aufsicht zu fördern und Untersuchungen zur KI-Sicherheit voranzutreiben.

Ich freue mich, dass Sie Jans bedeutende Beiträge zu OpenAI schätzen, und ich versichere Ihnen, dass sein Einfluss über seine Amtszeit hier hinaus spürbar sein wird. Angesichts der Neugier, die durch seinen Abgang geweckt wurde, hielt ich es für hilfreich, etwas Licht auf unsere allgemeinere strategische Ausrichtung zu werfen.

Zuerst haben wir…

– Greg Brockman (@gdb), 18. Mai 2024

Er räumte ein, dass die sichere Entwicklung und Freigabe künstlicher allgemeiner Intelligenz (AGI) komplizierte und unbekannte Hürden mit sich bringt, die eine kontinuierliche Verbesserung der Sicherheitsprotokolle und der Überwachung erforderlich machen.

Venezuela geht angesichts des Energieengpasses hart gegen Krypto-Mining vor

Weiterlesen

2024-05-19 04:24