Home Reisen OpenAI: Versuche eines in Israel ansässigen Unternehmens, in indische Wahlen einzugreifen, sind...

OpenAI: Versuche eines in Israel ansässigen Unternehmens, in indische Wahlen einzugreifen, sind ins Stocken geraten

5
0

OpenAI, die Entwickler von ChatGPT, haben erklärt, sie hätten innerhalb von 24 Stunden reagiert, um den betrügerischen Einsatz von KI bei verdeckten Operationen im Zusammenhang mit den indischen Wahlen zu unterbinden. Datei. | Bildnachweis: AP

OpenAI, die Entwickler von ChatGPT, gaben an, innerhalb von 24 Stunden reagiert zu haben, um den betrügerischen Einsatz von KI bei verdeckten Operationen im Zusammenhang mit den indischen Wahlen zu unterbinden, was jedoch zu keiner nennenswerten Steigerung der Nutzerzahlen führte. In einem Bericht auf seiner Website sagte OpenAI, dass STOIC, eine politische Wahlkampfmanagementfirma in Israel, neben dem Gaza-Konflikt auch Inhalte zu den indischen Wahlen erstellt habe.

Der Staatsminister für Elektronik und Technologie, Rajeev Chandrasekhar, kommentierte den Bericht wie folgt: „Es ist absolut klar und offensichtlich, dass @BJP4India das Ziel von Einflussoperationen war und ist. OpenAI beschrieb seine Operationen so, dass die Aktivitäten eines kommerziellen Unternehmens in Israel namens STOIC gestört wurden. Nur die Aktivitäten wurden gestört, nicht das Unternehmen. „Im Mai begann das Netzwerk, Kommentare zu generieren, die sich auf Indien konzentrierten, die regierende BJP-Partei kritisierten und die oppositionelle Kongresspartei lobten“, hieß es. „Im Mai haben wir einige Aktivitäten, die sich auf die indischen Wahlen konzentrierten, weniger als 24 Stunden nach ihrem Beginn gestört.“ OpenAI sagte, es habe eine Gruppe von Konten gesperrt, die von Israel aus betrieben wurden und zur Generierung und Bearbeitung von Inhalten für eine Einflussoperation verwendet wurden, die sich über X, Facebook, Instagram, Websites und YouTube erstreckte. „Diese Operation zielte mit Inhalten auf Englisch und Hebräisch auf Zielgruppen in Kanada, den Vereinigten Staaten und Israel ab. Anfang Mai begann es, mit englischsprachigen Inhalten auf Zielgruppen in Indien abzuzielen.“ Nähere Angaben wurden nicht gemacht.

Der Staatsminister für Elektronik und Technologie, Rajeev Chandrasekhar, sagte zu dem Bericht: „Es ist absolut klar und offensichtlich, dass @BJP4India das Ziel von Einflussoperationen, Fehlinformationen und ausländischer Einmischung war und ist, die von und/oder im Namen einiger indischer politischer Parteien durchgeführt wurden.

„Dies ist eine sehr gefährliche Bedrohung für unsere Demokratie. Es ist klar, dass Eigeninteressen in Indien und im Ausland dahinter stecken und dass dies eingehend untersucht und aufgedeckt werden muss. Meiner Ansicht nach hätten diese Plattformen dies viel früher veröffentlichen können und nicht erst so spät, wenn die Wahlen zu Ende sind“, fügte er hinzu.

OpenAI erklärte, dass es sich der Entwicklung sicherer und allgemein nützlicher KI verschrieben hat. „Unsere Untersuchungen zu mutmaßlichen verdeckten Einflussoperationen (IO) sind Teil einer umfassenderen Strategie, um unser Ziel eines sicheren KI-Einsatzes zu erreichen.“ OpenAI erklärte, dass es sich der Durchsetzung von Richtlinien zur Verhinderung von Missbrauch und der Verbesserung der Transparenz bei KI-generierten Inhalten verschrieben hat. Dies gilt insbesondere für die Erkennung und Unterbrechung verdeckter Einflussoperationen (IO), die versuchen, die öffentliche Meinung zu manipulieren oder politische Ergebnisse zu beeinflussen, ohne die wahre Identität oder die Absichten der dahinter stehenden Akteure offenzulegen.

„In den letzten drei Monaten haben wir fünf verdeckte IOs gestört, die versuchten, unsere Modelle zur Unterstützung irreführender Aktivitäten im gesamten Internet zu verwenden. Bis Mai 2024 scheinen diese Kampagnen aufgrund unserer Dienste ihr Publikumsengagement oder ihre Reichweite nicht wesentlich erhöht zu haben“, heißt es.

OpenAI erklärte, dass die Aktivitäten eines israelischen Handelsunternehmens namens STOIC gestört worden seien. Dabei sei nur die Aktivität gestört worden, nicht das Unternehmen.

„Wir haben diese Operation Zero Zeno getauft, nach dem Gründer der stoischen Philosophieschule. Die Leute hinter Zero Zeno verwendeten unsere Modelle, um Artikel und Kommentare zu erstellen, die dann auf mehreren Plattformen veröffentlicht wurden, insbesondere auf Instagram, Facebook, X und Websites, die mit dieser Operation in Verbindung stehen“, hieß es.

Die im Rahmen dieser verschiedenen Operationen veröffentlichten Inhalte konzentrierten sich auf ein breites Themenspektrum, darunter die russische Invasion in der Ukraine, den Gaza-Konflikt, die Wahlen in Indien, die Politik in Europa und den Vereinigten Staaten sowie die Kritik chinesischer Dissidenten und ausländischer Regierungen an der chinesischen Regierung.

OpenAI sagte, es verfolge einen mehrgleisigen Ansatz zur Bekämpfung des Missbrauchs seiner Plattform, einschließlich der Überwachung und Störung von Bedrohungsakteuren, darunter staatlich verbündete Gruppen und ausgeklügelte, hartnäckige Bedrohungen. „Wir investieren in Technologie und Teams, um Akteure wie die, die wir hier diskutieren, zu identifizieren und zu stören, einschließlich der Nutzung von KI-Tools zur Bekämpfung von Missbrauch.“ OpenAI arbeitet mit anderen im KI-Ökosystem zusammen, weist auf mögliche Missbräuche von KI hin und teilt die Erkenntnisse mit der Öffentlichkeit.

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here