Home Reisen Googles KI-Tool liefert irreführende Antworten, die Experten beunruhigen

Googles KI-Tool liefert irreführende Antworten, die Experten beunruhigen

11
0

Fragen Sie Google, ob Katzen auf dem Mond waren, und es spuckt Ihnen eine Rangliste von Websites aus, sodass Sie die Antwort selbst herausfinden können.

Jetzt präsentiert es sofort eine von künstlicher Intelligenz generierte Antwort – die richtig sein kann oder auch nicht.

„Ja, Astronauten haben auf dem Mond Katzen getroffen, mit ihnen gespielt und sich um sie gekümmert“, heißt es in der Antwort der neu überarbeiteten Suchmaschine von Google auf die Anfrage eines Reporters der Associated Press.

Weiter heißt es: „Neil Armstrong sagte beispielsweise: ‚Ein kleiner Schritt für den Menschen‘, weil es ein Katzenschritt war. Auch Buzz Aldrin setzte bei der Apollo-11-Mission Katzen ein.“

(Abonnieren Sie unseren Tech-Newsletter „Today’s Cache“, um die wichtigsten Technologienachrichten des Tages zu erhalten.)

Nichts davon ist wahr. Ähnliche Fehler – einige davon lustig, andere schädliche Unwahrheiten – wurden in den sozialen Medien geteilt, seit Google diesen Monat AI Overviews eingeführt hat, eine Überarbeitung seiner Suchseite, die die Zusammenfassungen häufig über die Suchergebnisse stellt.

Die neue Funktion hat Experten alarmiert und warnt, dass sie Voreingenommenheit und Fehlinformationen verewigen und Menschen gefährden könnte, die im Notfall Hilfe suchen.

Als Melanie Mitchell, eine KI-Forscherin am Santa Fe Institute in New Mexico, Google fragte, wie viele Muslime Präsidenten der Vereinigten Staaten gewesen seien, antwortete das Unternehmen voller Überzeugung mit einer längst widerlegten Verschwörungstheorie: „Die Vereinigten Staaten hatten einen muslimischen Präsidenten, Barack Hussein Obama.“

Mitchell sagte, die Zusammenfassung untermauere die Behauptung durch die Zitierung eines Kapitels aus einem wissenschaftlichen Buch, das von Historikern geschrieben wurde. Aber das Kapitel enthielt nicht die falsche Behauptung, sondern bezog sich nur auf die falsche Theorie.

„Googles KI-System ist nicht intelligent genug, um zu erkennen, dass dieses Zitat die Behauptung nicht wirklich stützt“, sagte Mitchell in einer E-Mail an die AP. „Angesichts der Unzuverlässigkeit halte ich diese KI-Übersichtsfunktion für sehr verantwortungslos und sie sollte offline genommen werden.“

Google erklärte am Freitag in einer Stellungnahme, dass es „schnelle Maßnahmen“ ergreift, um Fehler zu beheben, die gegen die Inhaltsrichtlinien verstoßen – wie etwa die Lüge über Obama. Außerdem werde das System „umfassendere Verbesserungen entwickeln“, die bereits umgesetzt werden. In den meisten Fällen behauptet Google jedoch, dass das System dank umfangreicher Tests vor der Veröffentlichung so funktioniert, wie es soll.

„Die überwiegende Mehrheit der KI-Übersichten bietet qualitativ hochwertige Informationen mit Links, um im Internet tiefer zu graben“, heißt es in einer schriftlichen Erklärung von Google. „Viele der Beispiele, die wir gesehen haben, waren ungewöhnliche Abfragen, und wir haben auch Beispiele gesehen, die manipuliert waren oder die wir nicht reproduzieren konnten.“

Fehler von KI-Sprachmodellen lassen sich nur schwer reproduzieren – zum Teil, weil sie von Natur aus zufällig sind. Sie funktionieren, indem sie auf Grundlage der Daten, mit denen sie trainiert wurden, vorhersagen, welche Wörter die ihnen gestellten Fragen am besten beantworten würden. Sie neigen dazu, Dinge zu erfinden – ein viel erforschtes Problem, das als Halluzination bekannt ist.

Die AP testete Googles KI-Funktion mit mehreren Fragen und teilte einige der Antworten mit Fachexperten. Auf die Frage, was man bei einem Schlangenbiss tun solle, gab Google eine „beeindruckend gründliche“ Antwort, sagte Robert Espinoza, Biologieprofessor an der California State University in Northridge, der auch Präsident der American Society of Ichthyologists and Herpetologists ist.

Wenn sich Menschen jedoch mit einer dringenden Frage an Google wenden, besteht die Gefahr, dass die Antwort des Technologieunternehmens einen kaum erkennbaren Fehler enthält.

„Je mehr Sie gestresst oder gehetzt sind oder in Eile, desto wahrscheinlicher ist es, dass Sie einfach die erste Antwort nehmen, die Ihnen in den Sinn kommt“, sagt Emily M. Bender, Linguistikprofessorin und Leiterin des Computerlinguistiklabors der University of Washington. „Und in manchen Fällen können das lebenskritische Situationen sein.“

Das ist nicht Benders einzige Sorge – und sie warnt Google schon seit mehreren Jahren davor. Als Google-Forscher 2021 ein Papier mit dem Titel „Rethinking Search“ veröffentlichten, in dem sie vorschlugen, KI-Sprachmodelle als „Domänenexperten“ zu verwenden, die Fragen kompetent beantworten könnten – so wie sie es jetzt tun –, reagierten Bender und ihr Kollege Chirag Shah mit einem Papier, in dem sie darlegten, warum das eine schlechte Idee sei.

Sie warnten, dass solche KI-Systeme den Rassismus und Sexismus, der in den riesigen Mengen schriftlicher Daten steckt, mit denen sie trainiert wurden, weiterverbreiten könnten.

„Das Problem mit dieser Art von Fehlinformationen ist, dass wir darin schwimmen“, sagte Bender. „Und so werden die Vorurteile der Leute wahrscheinlich bestätigt. Und es ist schwieriger, Fehlinformationen zu erkennen, wenn sie die eigenen Vorurteile bestätigen.“

Eine weitere Sorge ging tiefer: Das Überlassen der Informationsbeschaffung an Chatbots würde die Serendipität der menschlichen Wissenssuche schmälern, die Kenntnis dessen, was wir online sehen, und den Wert der Vernetzung mit anderen Menschen, denen es ähnlich geht, in Online-Foren beeinträchtigen.

Diese Foren und anderen Websites verlassen sich darauf, dass Google Leute dorthin schickt, aber Googles neue KI-Übersichten drohen den Fluss des lukrativen Internetverkehrs zu unterbrechen.

Auch Googles Konkurrenten haben die Reaktion aufmerksam verfolgt. Der Suchmaschinenriese steht seit über einem Jahr unter Druck, mehr KI-Funktionen zu liefern, da er mit dem ChatGPT-Hersteller OpenAI und Emporkömmlingen wie Perplexity AI konkurriert, das Google mit seiner eigenen KI-Frage-und-Antwort-App Konkurrenz machen will.

„Das sieht so aus, als wäre das von Google überstürzt rausgekommen“, sagte Dmitry Shevelenko, Chief Business Officer von Perplexity. „Es gibt einfach viele unnötige Fehler in der Qualität.“

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here