Home Reisen OpenAI richtet Sicherheitsausschuss ein, während es mit dem Training eines neuen Modells...

OpenAI richtet Sicherheitsausschuss ein, während es mit dem Training eines neuen Modells beginnt

20
0

OpenAI hat einen Sicherheitsausschuss eingerichtet, der von Vorstandsmitgliedern geleitet wird. | Bildnachweis: Reuters

OpenAI hat einen Sicherheitsausschuss gebildet, der von Vorstandsmitgliedern, darunter CEO Sam Altman, geleitet wird, während es mit dem Training seines nächsten künstlichen Intelligenzmodells beginnt, sagte das KI-Startup am Dienstag.

Die Direktoren Bret Taylor, Adam D’Angelo und Nicole Seligman werden auch den Ausschuss leiten, sagte OpenAI auf einem Unternehmensblog.

Die von Microsoft unterstützten Chatbots von OpenAI mit generativen KI-Funktionen – etwa der Teilnahme an menschenähnlichen Gesprächen und der Erstellung von Bildern auf der Grundlage von Textaufforderungen – haben Sicherheitsbedenken ausgelöst, da die KI-Modelle immer leistungsfähiger werden.

Die ehemaligen Chefwissenschaftler Ilya Sutskever und Jan Leike, die das Superalignment-Team von OpenAI leiteten, das dafür sorgte, dass die KI auf die beabsichtigten Ziele ausgerichtet bleibt, haben das Unternehmen Anfang dieses Monats verlassen.

(Abonnieren Sie unseren Tech-Newsletter „Today’s Cache“, um die wichtigsten Technologienachrichten des Tages zu erhalten.)

OpenAI hatte das Superalignment-Team bereits Anfang Mai aufgelöst, weniger als ein Jahr nach seiner Gründung durch das Unternehmen. Einige Teammitglieder wurden dabei anderen Gruppen zugewiesen, berichtete CNBC einige Tage nach den spektakulären Abgängen.

Der neue Ausschuss wird dafür verantwortlich sein, dem Vorstand Empfehlungen zu Sicherheitsentscheidungen für die Projekte und den Betrieb von OpenAI zu geben.

Seine erste Aufgabe wird es sein, in den nächsten 90 Tagen die bestehenden Sicherheitspraktiken von OpenAI zu bewerten und weiterzuentwickeln. Anschließend wird es dem Vorstand Empfehlungen vorlegen.

Nach der Prüfung durch den Vorstand werde OpenAI ein Update zu den angenommenen Empfehlungen öffentlich machen, teilte das Unternehmen mit.

Weitere Mitglieder des Komitees sind der neu ernannte Chefwissenschaftler Jakub Pachocki und Matt Knight, Sicherheitschef.

Das Unternehmen wird außerdem weitere Experten konsultieren, darunter Rob Joyce, einen ehemaligen Cybersicherheitsdirektor der US-amerikanischen National Security Agency, und John Carlin, einen ehemaligen Beamten des Justizministeriums.

OpenAI gab keine weiteren Einzelheiten zu dem neuen „Frontier“-Modell bekannt, das es trainiert, außer, dass es seine Systeme auf die „nächste Fähigkeitsebene auf unserem Weg zur AGI“ bringen würde.

Anfang Mai kündigte das Unternehmen ein neues KI-Modell an, das realistische Sprachgespräche und Interaktionen über Text und Bild ermöglicht.

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here