Home Reisen „Ich könnte ein Foto von Ihnen machen und Sie in wenigen Minuten...

„Ich könnte ein Foto von Ihnen machen und Sie in wenigen Minuten Metallica singen lassen“, sagt ein KI-Experte und warnt vor Deepfakes, „die so einfach sind, dass es schon beängstigend ist“.

19
0

Die Erstellung KÜNSTLICHER „Deepfake“-Videos von Ihnen dauert nur wenige Minuten – und erfordert nur ein einziges Foto.

Dies ist die Warnung eines Sicherheitsexperten, der sagt, dass Apps mit künstlicher Intelligenz Ihr Gesicht sehr schnell und einfach animieren und mit gefälschtem Ton versehen können.

2

Deepfakes werden immer raffinierter – und einfacher zu erstellenBildnachweis: Getty

Deepfakes sind künstliche Videos von Personen, die mithilfe von KI auf Grundlage vorhandener Bilder erstellt werden.

Und moderne Deepfakes können sogar gefälschte Audiodaten mit künstlichen Voiceovers enthalten, die alle mithilfe künstlicher Intelligenz erstellt wurden.

Laut Sicherheitsexperte Matt Sparrow ist KI mittlerweile so leistungsfähig, dass sie aus einzelnen Standbildern überzeugende Videos erstellen kann.

„Wir sind schon da. Ich könnte jetzt ein Foto machen und innerhalb weniger Minuten könnte ich dich Metallica Ride the Blitz,” sagte Matt, ein leitender Geheimdienstanalyst bei Centripetal, gegenüber The US Sun.

„Es ist so einfach, es ist beängstigend.“

ECHT ODER FÄLSCHUNG?

Sicherheitsexperten sind zunehmend besorgt darüber, dass es immer schwieriger wird, Deepfakes vom Original zu unterscheiden.

Früher konnte man ein betrügerisches KI-Bild leicht erkennen, indem man auf zusätzliche Finger oder merkwürdige optische Mängel achtete.

Nun gilt es zu prüfen, ob das Video Sinn ergibt und verdächtig erscheint.

Schockierende KI-Stimme klont Robin Williams‘ Stimme in KI-Interview

Wenn eine kühne Behauptung aufgestellt wird oder Sie zu einer dringenden Entscheidung aufgefordert werden, ist das ein Warnzeichen.

„Die Leute müssen vertrauen, aber auch überprüfen“, sagte uns Matt.

„Wenn ich vor einer großen Bitte oder Anforderung von Vermögenswerten keine Mitteilung von Ihnen erhalte, werde ich mich über eine bekannte und vertrauenswürdige Kontaktmethode an Sie wenden.

„Leider sind lange Pausen und Sprachgespräche subjektiv. Sie sind schwer zu erkennen und zu beschreiben. Die Technologie ist zu gut.“

2

Ein Sicherheitsexperte prahlte damit, dass künstliche Intelligenz jeden dazu bringen kann, Metallica zu singen – und zwar mit nur einem einzigen BildBildnachweis: Getty

AI-Romantik-Betrug – Vorsicht!

Passen Sie auf Kriminelle auf, die KI-Chatbots verwenden, um Sie zu täuschen …

Die US Sun hat kürzlich die Gefahren von KI-Bots für Liebesbetrug aufgedeckt – hier erfahren Sie, was Sie wissen müssen:

KI-Chatbots werden eingesetzt, um Menschen zu betrügen, die online nach einer Beziehung suchen. Diese Chatbots sind so konzipiert, dass sie menschliche Gespräche nachahmen und können schwer zu erkennen sein.

Es gibt jedoch einige Warnzeichen, die Ihnen bei der Identifizierung helfen können.

Wenn der Chatbot beispielsweise zu schnell und mit allgemeinen Antworten reagiert, handelt es sich wahrscheinlich nicht um eine echte Person.

Ein weiterer Hinweis ist, wenn der Chatbot versucht, das Gespräch von der Dating-Plattform auf eine andere App oder Website zu verlagern.

Wenn der Chatbot darüber hinaus nach persönlichen Informationen oder Geld fragt, handelt es sich definitiv um einen Betrug.

Es ist wichtig, wachsam zu bleiben und bei der Interaktion mit Fremden im Internet Vorsicht walten zu lassen, insbesondere wenn es um Herzensangelegenheiten geht.

Wenn etwas zu gut scheint, um wahr zu sein, ist das wahrscheinlich auch der Fall.

Seien Sie skeptisch gegenüber jedem, der zu perfekt erscheint oder zu eifrig versucht, die Beziehung voranzubringen.

Wenn Sie sich dieser Warnsignale bewusst sind, können Sie sich davor schützen, Opfer von KI-Chatbot-Betrug zu werden.

Da die KI mittlerweile so weit fortgeschritten und leicht zugänglich ist, können Kriminelle sie für zahlreiche Betrugsversuche einsetzen.

Betrüger können Ihre Stimme mithilfe von KI-Tools in Sekundenschnelle klonen – oder mithilfe von Chatbots schnell überzeugende Betrugsinhalte generieren, um Sie zu täuschen.

Betrugs-Spam

Matt verriet, dass „praktisch alles“, was ein Betrüger normalerweise tun würde, um Sie hereinzulegen, durch den Einsatz von KI einfacher oder überzeugender gemacht werden kann.

Es ist nichts falsch daran, zu Dingen „Nein“ zu sagen.

Matt SparrowZentripetal

„KI wird zum Umschreiben von E-Mails verwendet, böswillige Akteure nutzen sie für Phishing und Social Engineering Kampagnenerläuterte der Sicherheitsexperte.

„Die Leute sollten im Allgemeinen vorsichtig sein und aufhören, kostenlose Informationen preiszugeben. Es ist nichts falsch daran, zu Dingen ‚Nein‘ zu sagen.

„Andere Betrügereien sind auf Datendiebstahl zurückzuführen. Erst kürzlich gab es einen Datendiebstahl, bei dem es um Strafregister ging.

„Ich gehe von ganzem Herzen davon aus, dass diese Menschen und ihr Umfeld betrügerische Anrufe erhalten werden.

Deepfakes – was sind sie und wie funktionieren sie?

Das müssen Sie wissen …

Deepfakes sind gefälschte Videos von Menschen, die vollkommen echt aussehen Sie werden mithilfe von Computern erstellt, um überzeugende Darstellungen von Ereignissen zu erzeugen, die nie stattgefunden haben Oft wird dabei das Gesicht einer Person gegen das einer anderen ausgetauscht oder die Person dazu gebracht, alles Mögliche zu sagen Der Prozess beginnt damit, einer KI Hunderte oder gar Tausende von Fotos des Opfers zuzuführen Ein Algorithmus für maschinelles Lernen tauscht bestimmte Teile Bild für Bild aus, bis er ein realistisches, aber gefälschtes Foto oder Video ausspuckt In einem berühmten Deepfake-Clip hat der Komiker Jordan Peele ein realistisches Video von Barack Obama erstellt, in dem der ehemalige Präsident Donald Trump einen „Depp“ nennt In einem anderen Video wird das Gesicht von Will Smith auf die Figur Neo aus dem Actionfilm „Matrix“ übertragen. Smith lehnte bekanntlich die Rolle ab, um in dem Flop „Wild Wild West“ mitzuspielen, während die Rolle in „Matrix“ an Keanu Reeves ging

„Sie bekommen dann Dinge wie ‚Hey, Sie haben noch einen offenen Betrag für Bußgelder offen‘ oder vielleicht ‚Diese Person hat gesagt, sie könnte Sie als Referenz angeben.‘

„Bei jedem Datenleck werden die Leute ständig mit Risiken bombardiert.“

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here