Hast du genug von der deutschen Bürokratie und Politik? 🌍🤯 Dann ist unser Kanal genau das Richtige für dich! Hier gibt's nicht nur die heißesten Krypto-News, sondern auch eine Prise Sarkasmus und Spaß! 🚀😎
👉Beitreten zu Telegramm
Als Analyst mit über zwei Jahrzehnten Erfahrung in KI und Technologie bin ich von den jüngsten Entwicklungen bei OpenAI sowohl fasziniert als auch besorgt. Der Weggang von Lilian Weng, einer erfahrenen Fachkraft, die eine entscheidende Rolle bei der Gestaltung der Sicherheitssysteme des Unternehmens gespielt hat, ist ein erheblicher Verlust für die Branche.
Aktuelle Neuigkeiten: Lilian Weng, die sieben Jahre lang die Position des Vizepräsidenten für Forschung und Sicherheit bei OpenAI innehatte, hat beschlossen, sich vom Unternehmen zu trennen. Während ihrer Amtszeit war Weng maßgeblich an der Gestaltung der Sicherheitsmechanismen von OpenAI beteiligt, einem Schlüsselaspekt ihres ethischen KI-Ansatzes.
Ihr Abgang am 15. November fällt mit einem aktuellen Abgangstrend unter den Mitgliedern des KI-Sicherheitsteams von OpenAI zusammen, darunter Schlüsselfiguren wie Jan Leike und Ilya Sutskever. Diese Personen leiteten gemeinsam das Superalignment-Team, ein Projekt, das sich der Sicherstellung der Kontrolle hochintelligenter künstlicher Intelligenz widmet.
KI-Nachrichten: Lilian Weng, Sicherheitsvizepräsidentin von OpenAI, tritt zurück und verweist auf die Notwendigkeit neuer Herausforderungen
Bei ein frisches Abenteuer. Zu ihren Leistungen bei OpenAI gehört, dass Weng maßgeblich zum Wachstum des Safety Systems-Teams beigetragen hat, das schließlich auf mehr als 80 Mitglieder angewachsen ist.
Weng war zweifellos stolz auf die Erfolge des Teams und zeigte sich stolz auf ihre Fortschritte sowie darauf, dass das Team auch nach ihrem Weggang noch erfolgreich sein würde. Dennoch unterstreicht Wengs Rücktritt ein wiederkehrendes Muster innerhalb der KI-Sicherheitsgruppe von OpenAI, wobei mehrere Mitglieder ihre Besorgnis über die sich verändernde Ausrichtung des Unternehmens zum Ausdruck bringen.
Zunächst wurde Weng Mitglied des Robotik-Teams bei OpenAI, wo sie sich auf komplexe Projekte konzentrierten, beispielsweise darauf, einer Roboterhand beizubringen, einen Zauberwürfel zu lösen. Im Laufe der Zeit verlagerte sie ihre Rolle auf die Sicherheit künstlicher Intelligenz und übernahm schließlich nach der Veröffentlichung von GPT-4 die Verantwortung für die Überwachung der Sicherheitsmaßnahmen von OpenAI. Dieser Übergang war ein Zeichen für Wengs wachsendes Engagement, die sichere Weiterentwicklung der KI-Systeme von OpenAI zu gewährleisten.
In den jüngsten AI-Nachrichten machte Weng keine Angaben zu ihren Plänen, erklärte jedoch:
Nachdem ich fast sieben Jahre mit OpenAI verbracht habe, ist es für mich an der Zeit, weiterzumachen. Das Wissen, das ich dort erworben habe, ist immens und ich fühle mich auf einen Neuanfang und spannende neue Möglichkeiten vorbereitet.
OpenAI löst das Superalignment-Team auf, da sich die Sicherheitsprioritäten ändern
Kürzlich hat OpenAI beschlossen, seine Superalignment-Gruppe aufzulösen, ein gemeinsam von Jan Leike und Mitbegründer Ilya Sutskever geleitetes Projekt, das darauf abzielte, Steuerungen für KI mit superintelligenten Fähigkeiten zu entwickeln. Diese Entscheidung hat Debatten darüber entfacht, ob OpenAI mehr Wert auf kommerzielle Angebote legt als auf die Gewährleistung der Sicherheit bei der KI-Entwicklung.
Den neuesten Nachrichten über KI zufolge hat sich das Führungsteam von OpenAI unter der Leitung von CEO Sam Altman mehr auf die Einführung von Produkten wie GPT-4o – einem fortschrittlichen generativen Modell – konzentriert, als sich tiefer mit der Superalignment-Forschung zu befassen. Diese Schwerpunktverlagerung soll zu den Rücktritten von Leike und Sutskever Anfang des Jahres geführt haben, wobei auch andere Teammitglieder im Bereich KI-Sicherheit und -Politik OpenAI verlassen haben.
Ilya und OpenAI werden getrennte Wege gehen, was mich mit großer Trauer erfüllt. Ilya ist zweifellos einer der klügsten Köpfe unserer Zeit, ein Leuchtturm auf unserem Gebiet und jemand, der mir am Herzen liegt. Sein Genie und seine Weitsicht sind weithin anerkannt; Seine Freundlichkeit und sein Mitgefühl sind, obwohl weniger bekannt, gleichermaßen wertvoll.
– Sam Altman (@sama), 14. Mai 2024
Das Ziel des Superalignment-Teams bestand darin, Strategien zur Überwachung von KI-Systemen zu entwickeln, die so komplexe Aufgaben wie Menschen ausführen können. Ihre Auflösung hat jedoch bei ehemaligen Mitarbeitern und Branchenexperten Besorgnis geweckt, die befürchten, dass der Fokus des Unternehmens auf die Produktentwicklung die Umsetzung strenger Sicherheitsprotokolle gefährden könnte.
Kürzlich hat OpenAI eine neue Funktion für ChatGPT namens ChatGPT Search vorgestellt, die das ausgefeilte GPT-40-Modell nutzt, um Suchfunktionen vor Ort für verschiedene Themen wie Sportergebnisse, Börsentrends und aktuelle Ereignisse bereitzustellen.
Darüber hinaus äußerte Elon Musk, CEO von Tesla, seine Besorgnis über mögliche Gefahren durch KI und prognostizierte eine Wahrscheinlichkeit von 10–20 %, dass sich KI-Entwicklungen autonom verhalten. Bei einer kürzlich stattgefundenen Versammlung mahnte Musk zur Vorsicht und zu ethischen Diskussionen bei der Entwicklung der KI-Technologie. Er betonte, dass die rasche Weiterentwicklung der KI es Systemen ermöglichen könnte, innerhalb der nächsten zwei Jahre anspruchsvolle Aufgaben auszuführen, die den menschlichen Fähigkeiten ähneln.
Weiterlesen
- EUR THB PROGNOSE
- EUR CHF PROGNOSE
- USD CHF PROGNOSE
- EUR HUF PROGNOSE
- XRP PROGNOSE. XRP Kryptowährung
- EUR RUB PROGNOSE
- EUR BRL PROGNOSE
- EUR HKD PROGNOSE
- STMX PROGNOSE. STMX Kryptowährung
- USD CAD PROGNOSE
2024-11-09 06:00