Home Reisen KI-Unternehmen streben nach großen Gewinnen mit „kleinen“ Sprachmodellen

KI-Unternehmen streben nach großen Gewinnen mit „kleinen“ Sprachmodellen

23
0

Bleiben Sie mit kostenlosen Updates auf dem Laufenden

Unternehmen für künstliche Intelligenz, die Milliarden von Dollar in die Entwicklung sogenannter großer Sprachmodelle für generative KI-Produkte gesteckt haben, setzen nun auf eine neue Möglichkeit, ihren Umsatz zu steigern: kleine Sprachmodelle.

Apple, Microsoft, Meta und Google haben alle kürzlich neue KI-Modelle mit weniger „Parametern“ – der Anzahl der Variablen, die zum Trainieren eines KI-Systems und zur Gestaltung seiner Ausgabe verwendet werden –, aber dennoch mit leistungsstarken Funktionen veröffentlicht.

Die Schritte sind ein Versuch von Technologiegruppen, die Einführung von KI bei Unternehmen zu fördern, die Bedenken hinsichtlich der Kosten und der Rechenleistung haben, die für die Ausführung großer Sprachmodelle erforderlich sind, der Art von Technologie, die beliebten Chatbots wie ChatGPT von OpenAI zugrunde liegt.

Generell gilt: Je höher die Anzahl der Parameter, desto besser ist die Leistung der KI-Software und desto komplexer und differenzierter können ihre Aufgaben sein. OpenAIs neuestes Modell GPT-4o und Googles Gemini 1.5 Pro, die beide diese Woche angekündigt wurden, haben schätzungsweise mehr als 1 Billion Parameter, und Meta trainiert eine 400 Milliarden Parameter umfassende Version seines Open-Source-Llama-Modells.

Es fällt nicht nur schwer, einige Unternehmenskunden davon zu überzeugen, die hohen Beträge zu zahlen, die für den Betrieb generativer KI-Produkte erforderlich sind, sondern es bestehen auch Bedenken hinsichtlich der Daten- und Urheberrechtshaftung, die die Einführung behindern.

Dies hat dazu geführt, dass Technologiekonzerne wie Meta und Google kleine Sprachmodelle mit nur wenigen Milliarden Parametern als günstigere, energieeffiziente und anpassbare Alternativen anbieten, die weniger Energie zum Trainieren und Ausführen benötigen und auch sensible Daten abschirmen können.

„Indem man so viel Qualität zu geringeren Kosten bietet, ermöglicht man Kunden tatsächlich so viel mehr Anwendungen, in die sie gehen und Dinge tun können, die unerschwinglicherweise nicht genug Rendite für diese Investition brachten, um es zu rechtfertigen, es wirklich zu tun“, sagte Eric Boyd , Corporate Vice President der Azure AI Platform von Microsoft, die KI-Modelle an Unternehmen verkauft.

Google, Meta, Microsoft und das französische Start-up Mistral haben ebenfalls kleine Sprachmodelle veröffentlicht, die fortschrittliche Fähigkeiten zeigen und sich besser auf bestimmte Anwendungen konzentrieren können.

Nick Clegg, Metas Präsident für globale Angelegenheiten, sagte, das neue 8-Milliarden-Parametermodell von Llama 3 sei mit GPT-4 vergleichbar. „Ich denke, dass man bei so ziemlich jeder Messung, die man sich vorstellen kann, eine überlegene Leistung erkennen kann“, sagte er. Microsoft gab an, dass sein Phi-3-Small-Modell mit 7 Milliarden Parametern GPT-3.5, eine frühere Version des OpenAI-Modells, übertraf.

Die kleinen Modelle können Aufgaben lokal auf einem Gerät verarbeiten, anstatt Informationen an die Cloud zu senden, was datenschutzbewusste Kunden ansprechen könnte, die sicherstellen möchten, dass Informationen innerhalb interner Netzwerke gespeichert werden.

Charlotte Marshall, geschäftsführende Gesellschafterin bei Addleshaw Goddard, einer Anwaltskanzlei, die Banken berät, sagte, dass „eine der Herausforderungen, die meiner Meinung nach viele unserer Kunden hatten“ bei der Einführung generativer KI-Produkte darin bestand, regulatorische Anforderungen an die Verarbeitung und Übertragung von Daten einzuhalten. Sie sagte, dass kleinere Modelle „eine Gelegenheit für Unternehmen bieten, rechtliche und kostenbezogene Bedenken auszuräumen“.

Kleinere Modelle ermöglichen auch die Ausführung von KI-Funktionen auf Geräten wie Mobiltelefonen. Googles „Gemini Nano“-Modell ist in seinem neuesten Pixel-Handy und Samsungs neuestem S24-Smartphone integriert.

Apple hat angedeutet, dass es auch KI-Modelle entwickelt, die auf seinem meistverkauften iPhone laufen. Letzten Monat veröffentlichte der Riese aus dem Silicon Valley sein OpenELM-Modell, ein kleines Modell, das für die Ausführung textbasierter Aufgaben konzipiert ist.

Boyd von Microsoft sagte, kleinere Modelle würden zu „interessanten Anwendungen führen, bis hin zu Telefonen und Laptops“.

OpenAI-Chef Sam Altman sagte im November, dass das in San Francisco ansässige Start-up seinen Kunden unterschiedlich große KI-Modelle anbiete, die „unterschiedlichen Zwecken dienen“, und dass es diese Optionen weiterhin entwickeln und verkaufen werde.

„Es gibt einige Dinge, bei denen kleinere Modelle wirklich gut funktionieren“, fügte er hinzu. „Darauf freue ich mich.“

Altman fügte jedoch hinzu, dass sich OpenAI weiterhin auf den Aufbau größerer KI-Modelle mit erweiterten Fähigkeiten konzentrieren werde, einschließlich der Fähigkeit, Aufgaben zu begründen, zu planen und auszuführen und schließlich Intelligenz auf menschlicher Ebene zu erreichen.

„Ich glaube oft, dass die Leute einfach nur das beste Modell wollen“, sagte er. „Ich denke, das ist es, was die Leute am meisten wollen.“

Zusätzliche Berichterstattung von George Hammond in San Francisco

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here