Home Reisen OpenAI hat „glänzende Produkte“ über Sicherheit gestellt, sagt der scheidende Spitzenforscher

OpenAI hat „glänzende Produkte“ über Sicherheit gestellt, sagt der scheidende Spitzenforscher

26
0

Schalten Sie den Editor’s Digest kostenlos frei

Die führenden Sicherheitsverantwortlichen von OpenAI verließen das Unternehmen diese Woche, nachdem Meinungsverschiedenheiten darüber, ob „glänzenden Produkten“ Vorrang eingeräumt werden sollte oder ob die Sicherheit den „Bruchpunkt“ erreicht hatte, einen „Bruchpunkt“ erreicht hatten, sagt einer der ausscheidenden Forscher.

Jan Leike, der die Bemühungen von OpenAI zur Steuerung und Kontrolle superleistungsfähiger KI-Tools leitete, sagte, er habe am Donnerstag gekündigt, nachdem er sich mit seinen Chefs darüber gestritten hatte, wie viel Zeit und Ressourcen das Start-up in diese Bemühungen investiert.

„In den letzten Jahren sind Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund getreten“, schrieb Leike am Freitag in einem Beitrag auf der Social-Media-Seite X.

OpenAI war Spitzenreiter in einem erbitterten Wettlauf um die Entwicklung immer leistungsfähigerer Modelle und konkurrierte mit Konkurrenten wie Google, Meta und Anthropic darum, die Grenzen der KI-Technologie zu erweitern.

Das Unternehmen hat Milliarden von Dollar eingesammelt – darunter 13 Milliarden Dollar von Microsoft –, um KI-Modelle zu entwickeln, die Text, Sprache und Bilder interpretieren und Denkfähigkeiten demonstrieren können. Das Tempo dieser Fortschritte hat Besorgnis über alles geschürt, von der Verbreitung von Desinformation bis hin zum existenziellen Risiko, wenn KI-Tools „abtrünnig“ werden.

Leike, einer der angesehensten Forscher von OpenAI, verließ das Unternehmen zusammen mit Ilya Sutskever, dem Mitbegründer des Unternehmens und Co-Leiter des sicherheitsorientierten „Superalignment-Teams“, der Anfang dieser Woche seinen Rücktritt bekannt gab.

Das löst faktisch das Team von OpenAI auf, das sich vor allem darauf konzentriert, sicherzustellen, dass seine Technologie sicher entwickelt wird. Die verbleibenden Mitglieder des Superalignment-Teams behalten ihren Fokus auf Sicherheit und werden auf die Forschungsteams des Unternehmens verteilt, so eine Person mit Kenntnissen der Vereinbarung.

Der Schritt hat eine wachsende Spannung im Herzen des Unternehmens offengelegt zwischen der Nutzung eines frühen Vorsprungs in der KI und der Einhaltung seiner Kernaufgabe, sicherzustellen, dass übermächtige KI „der gesamten Menschheit zugute kommt“.

„Wir müssen dringend herausfinden, wie wir KI-Systeme viel intelligenter als wir steuern und kontrollieren können“, schrieb Leike. „Ich bin beigetreten, weil ich dachte, dass OpenAI der beste Ort der Welt wäre, um diese Forschung durchzuführen. Allerdings war ich mit der Führung von OpenAI schon seit geraumer Zeit anderer Meinung über die Kernprioritäten des Unternehmens, bis wir schließlich an einem Bruchpunkt angelangt sind.“

Sam Altman, CEO von OpenAI, schrieb auf X, er sei „sehr traurig, dass (Leike) gehen muss. Er hat recht, wir haben noch viel zu tun; Wir sind entschlossen, dies zu tun.“

Sicherheitsbedenken waren auch ein Faktor im Sitzungssaaldrama bei OpenAI im November, bei dem Altman von Regisseuren – darunter Sutskever – verdrängt wurde, nur um vier Tage später zurückzukehren. Bevor er entlassen wurde, geriet Altman mit dem damaligen Vorstandsmitglied Helen Toner aneinander, die den Sicherheitsansatz von OpenAI mit dem des Konkurrenten Anthropic in einer Weise verglich, die Altman für sein Unternehmen als ungünstig empfand.

OpenAI hat letztes Jahr sein Superalignment-Team ins Leben gerufen und erklärt, es sei darauf ausgelegt, Bedenken auszuräumen, dass superintelligente Maschinen „zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen könnten“. Damals vermutete das Unternehmen, dass KI den Menschen innerhalb des Jahrzehnts überlisten könnte. In den Monaten seitdem hat das Start-up eine Reihe großer Fortschritte erzielt.

Das Unternehmen verpflichtete sich, 20 Prozent seiner Rechenressourcen zur Unterstützung der Arbeit des Teams bereitzustellen, um sicherzustellen, dass die KI den menschlichen Interessen entspricht, auch wenn sie exponentiell leistungsfähiger wird.

Leike sagte jedoch, dass der Sicherheit und den gesellschaftlichen Auswirkungen leistungsfähigerer Modelle nicht genügend Aufmerksamkeit geschenkt worden sei: „Diese Probleme sind ziemlich schwer zu lösen, und ich mache mir Sorgen, dass wir nicht auf dem richtigen Weg sind, dorthin zu gelangen.“

Das Superalignment-Team hatte Schwierigkeiten, auf Rechenressourcen zuzugreifen, die in die Entwicklung neuer Modelle für Verbraucher wie GPT-4o, dem neuesten Modell von OpenAI, das am Montag veröffentlicht wurde, investiert wurden, sagte Leike.

„Mein Team ist in den letzten Monaten gegen den Wind gesegelt. Manchmal hatten wir Probleme mit der Rechenleistung und es wurde immer schwieriger, diese wichtige Forschung durchzuführen“, schrieb er.

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here