Home Reisen Können wir KI-Texte identifizieren? Forscher gehen dem Problem auf den Grund

Können wir KI-Texte identifizieren? Forscher gehen dem Problem auf den Grund

11
0

Ist es wichtig, ob etwas von einer KI geschrieben wurde, solange es auf realen Daten basiert? Diese und andere Fragen zur Erkennung von KI-Texten beschäftigen viele.

Lehrer und Bildungseinrichtungen haben sich den Kopf zerbrochen, um herauszufinden, wie sie KI-Texte in den Aufgaben ihrer Schüler identifizieren können, aber wir haben noch keine vernünftige Lösung gefunden. Von Forschungsarbeiten bis hin zu Zeitungsartikeln sind sehr offensichtliche und peinliche generative KI-Fauxpas ans Licht gekommen, aber das sind nur die offensichtlichsten Beispiele für KI. Es ist möglich, dass mehr KI-generierte Texte und Ergebnisse unbemerkt und ungeprüft geblieben sind. Einige Tools zur KI-generierten Textidentifizierung sind online verfügbar, aber Sie können diese Tools mit Ihren eigenen Texten füttern und sehen, wie ineffektiv sie manchmal sein können.

Unabhängig davon, wie intelligent künstliche Intelligenz wird, ist das Erkennen von KI-Texten und das Unterscheiden dieser Texte von Produkten menschlicher Gedanken und Fähigkeiten unerlässlich, damit die breite Öffentlichkeit KI mehr akzeptiert. Bestimmte Quellen haben die Hypothese aufgestellt, dass sie in der Lage waren, allgemeine, von KI generierte Texthinweise aufzuspüren, die KI-Texte von anderen unterscheiden, aber ist das narrensicher? Noch nicht.

Bild: Pexels

Können wir KI-Texte identifizieren? Forscher gehen dem Problem auf den Grund

Ein Artikel von Ars Technica hat sich mit dem Thema der Erkennung von KI-Texten beschäftigt und dazu eine wissenschaftliche Arbeit von Forschern der Universität Tübingen und der Northwestern University untersucht. Die Arbeit deutet darauf hin, dass seit 2023, als LLMs wirklich zu einem beliebten Werkzeug wurden, die Verwendung bestimmter Werke in einer Weise sprunghaft anstieg, die nicht unbedingt den in den Jahren zuvor beobachteten natürlichen Wachstumsmustern folgte. Das Wort „delves“ (vertieft sich) wurde in Abstracts von Arbeiten aus dem Jahr 2024 25-mal häufiger verwendet als in Forschungsberichten vor dem LLM. „Showcasing“ (Präsentation) und „underscores“ (Unterstriche) waren weitere Wörter, die in der Studie auffielen.

Wenn Sie plötzlich Angst haben, dass Sie wie ein KI-Bot schreiben, sind Sie nicht allein. Die in der Studie hervorgehobenen Wörter sind keineswegs „ungewöhnlich“, insbesondere nicht im Kontext einer Forschungsarbeit. Wenn die Wörter jedoch als Anzeichen für KI auffallen, sind Sie möglicherweise gezwungen, Ihren Wortschatz zu aktualisieren. Das Risiko, mit falschen Positivergebnissen konfrontiert zu werden, ist zu groß, um es in einer Welt zu ignorieren, in der die Wut über den Einsatz von KI immer größer wird.

Viele Online-Tools zur ChatGPT-Erkennung behaupten, KI-Texte identifizieren zu können, sind jedoch nicht immer hundertprozentig genau. ZDnet hat einige dieser KI-Detektoren selbst untersucht. Die Tools zeigten zwar bessere Ergebnisse als erwartet, ihre Genauigkeit war jedoch nicht konstant genug, um sie zum Unterscheiden von von Menschen verfassten Inhalten von KI-Inhalten zu verwenden.

Ein weiterer Fortschritt in der Kategorie der KI-Texterkennung ist das Tool Raidar (geneRative AI Detection via Rewriting) von Columbia Engineering. Laut ihrer Forschung sind KI-Tools eher bereit, menschliche Texte umzuschreiben als solche, die von KI geschrieben wurden. Indem man einen Text durch das Tool laufen lässt, kann man möglicherweise vorhersagen, ob etwas von KI geschrieben wurde, wenn die KI nur minimale Versuche unternimmt, es zu bearbeiten. Dies ist ein faszinierender Ansatz zur Erkennung von KI-Text und wir müssen weiter beobachten, wie sich diese Theorie weiterentwickelt.

Google stellt sich der Herausforderung der KI-generierten Text- und Videoidentifikation

Google hat kürzlich sein überarbeitetes SynthID-Wasserzeichenprägungssystem vorgestellt, das KI-generierte Texte und Videos mit einem unsichtbaren Wasserzeichen versehen kann. Das Erkennen von Hinweisen in KI-generierten Texten ist ein riskantes Unterfangen, da diese KI-Tools mit der Art der Inhalte, die sie generieren können, immer ausgefeilter werden. Es kann sein, dass es die menschliche Schrift so gut imitieren kann, dass die Suche nach Markierungswörtern im Text zu irreführenden Ergebnissen führen könnte.

Wenn stattdessen Wasserzeichen oder Kennungen in irgendeiner Form in den Inhalt eingebettet sind, lässt sich viel einfacher erkennen, ob Inhalte von KI erstellt wurden. Transparenz ist in Zukunft unerlässlich und wir brauchen mehr Möglichkeiten, um klare Grenzen zwischen dem zu ziehen, was KI ist und was nicht.

Sollten wir mehr Tools zur Identifizierung KI-generierter Texte erstellen?

Je ernster wir es damit meinen, KI-Texte zu erkennen und KI-generierte Texthinweise aufzugreifen, desto geschickter werden KI-Benutzer darin, der Erkennung zu entgehen und diese spezifischen Wörter langsam aus ihrem generierten Material zu eliminieren. Und je bewusster wir uns der Fehler in der KI sind, desto schneller werden die Eltern der KI daran arbeiten, ihrer KI eine „menschliche Note“ zu verleihen. Trotz der zirkulären Natur des Problems müssen wir uns ernsthafter damit befassen, herauszufinden, wie wir KI-Texte, -Videos und -Bilder identifizieren können.

Generative KI-Textmodelle können nützliche Werkzeuge für diejenigen sein, die Sprachunterstützung benötigen, um ihre Ideen präziser auszudrücken. Das Problem entsteht jedoch, wenn die Werkzeuge hemmungslos eingesetzt werden. Benutzer, die den Inhalt des generierten Materials nicht überprüfen oder dessen Richtigkeit nicht sicherstellen, verbreiten wahrscheinlich falsche Informationen und reklamieren die Anerkennung für Arbeit, die nie von ihnen geleistet wurde. Dies könnte später zu einem ernsthaften Problem werden. Autoren und Forscher mit authentischem Material könnten gezwungen sein, auf das Potenzial der KI zurückzugreifen, um Inhalte in einem viel schnelleren Tempo zu generieren, was echte Kreativität und den Wissensdrang behindert.

Wir müssen in der Lage sein, KI-generierten Text so genau wie möglich zu identifizieren. Doch bis wir ein Modell haben, das fast immer 100 Prozent genau funktioniert, sollten wir diese Detektoren sparsam einsetzen, um zu verhindern, dass die Öffentlichkeit zu Unrecht beschuldigt wird, sich zu sehr auf KI zu verlassen. Gleichzeitig sollten diejenigen, die sich auf KI-generierten Text verlassen, äußerste Vorsicht walten lassen, wenn es darum geht, die Richtigkeit des Inhalts zu überprüfen und dem Material jedes Mal ihre eigene Note zu verleihen.

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here