< E-Bike-Tuning: Illegal und gefährlich

Betrug mit KI und Avataren

Dank künstlicher Intelligenz kann jeder die Stimme einer anderen Person ziemlich perfekt imitieren und sie Sätze nach seinem Willen sprechen lassen. Das nennt man ein „Deep Fake“-Audio. So etwas funktioniert auch mit Videos. Man benötigt nur die geeigneten Programme und genügend Video- oder Audio-Originalmaterial. Je preiswerter die Programme werden, desto interessanter werden sie auch für Kriminelle.

Wie Kriminelle Deep Fake-Techniken einsetzen


Auch Betrüger nutzen Avatare für ihre Zwecke

© Shutterstock/Rifrazione_foto

 

Dank künstlicher Intelligenz kann jeder die Stimme einer anderen Person ziemlich perfekt imitieren und sie Sätze nach seinem Willen sprechen lassen. Das nennt man ein „Deep Fake“-Audio. So etwas funktioniert auch mit Videos. Man benötigt nur die geeigneten Programme und genügend Video- oder Audio-Originalmaterial. Je preiswerter die Programme werden, desto interessanter werden sie auch für Kriminelle.

 

Die ersten Deep Fake-Videos wurden im Jahr 2017 auf der Socialmedia-Plattform Reddit gezeigt. Dort präsentierte ein Nutzer verfälschte Videosequenzen berühmter Schauspielerinnen. Den von ihm selbst programmierten Algorithmus stellte er als Open-Source-Code zur Verfügung. Das ermöglichte es Anderen, mit dieser Anleitung eigene Deep Fakes zu erstellen. Seitdem hat sich die Technik enorm weiterentwickelt. Heute werben virtuelle Influencer, die auf dem Bildschirm wie echte Menschen agieren, im Internet für Marken und generieren Follower. Und die Band ABBA ging bei ihrer virtuellen Wiedervereinigung nicht mehr persönlich, sondern nur noch mit ihren Avataren auf Tournee. Doch diese KI-Technik beflügelt nicht nur die Unterhaltungsindustrie, sondern sie ruft auch Betrüger auf den Plan.

Avatar berät zu Fake-Reiseangeboten

Zwei Beispiele für den Betrug mit Audio- und Video-Deep Fakes wurden in letzter Zeit publik. Der erste Fall kam aus der Reisebranche: Kriminelle hatten eine Internet-Seite der Fake-Firma „Kofi Reisen“ online gestellt. Zur Kontaktanbahnung schickten die Betrüger den Kunden unaufgeforderte WhatsApp, in denen dann auf das Angebot preiswerter Reisen verwiesen wurde. Auf der Startseite beriet eine sympathisch aussehende junge Frau interessierte Kundinnen und Kunden im Videochat zu den Schnäppchenangeboten. Sie war ein täuschend echter Avatar, der von den Betrügern in Echtzeit wie eine Handpuppe gesteuert wurde. So verschleierten die Täter ihre wahre Identität. Die Nutzungsrechte für den Avatar „Emma“ hatten die Kriminellen für wenig Geld bei einem britischen Start-Up eingekauft. Solche Avatare werden normalerweise dafür eingesetzt, um etwa Schulungsprogramme oder Erklärvideos interessanter zu gestalten. Die digitalen Zwillinge basieren auf dem Aussehen echter Menschen und sprechen zahlreich Sprachen. Die betrügerische Reisewebsite ist längst offline. Aber viele Menschen haben nicht zuletzt wegen des sympathischen Avatars Emma und ihrer „persönlichen Beratung“ zu den angeblichen Schnäppchen-Reisen Geld an „Kofi Reisen“ überwiesen, für das sie nie eine Gegenleistung erhalten. Zum zweiten Anwendungsfall sind offensichtlich noch keine Opfer bekannt, aber das dürfte nur eine Frage der Zeit sein. Er betrifft den Enkeltrick: Beim herkömmlichen Enkeltrick rufen Kriminelle bei älteren Menschen an und geben sich als ein Enkelkind aus, das in einer Notlage ist und dringend Geld benötigt. Bislang müssen die Täter darauf hoffen, dass die Opfer die Stimmen ihrer Enkel nicht besonders genau in Erinnerung haben. „Bei KI-basierten Stimmen fällt es dem Bürger sehr, sehr schwer, diesen Unterschied überhaupt noch zu erkennen“, sagte Hans Hülsbeck vom LKA NRW kürzlich bei „WDR Aktuell“: „Das kann also ganz einfach sein im Bereich des Enkeltricks, den wir kennen, dass jetzt die Stimme der Enkelin oder des Enkels KI-basiert nachgemacht wird.“ Die Voraussetzung ist natürlich, dass die Betrüger über Audio-Aufzeichnungen von der Stimme des Enkels oder der Enkelin verfügen, mit denen sie die KI füttern können.

Artificial Intelligence (Künstlichen Intelligenz) stellt unser Vertrauen in die eigene Wahrnehmung in Frage

© Shutterstock/SuPatMaN

Mit der Fake-Stimme die Hausbank ausgetrickst

Die passenden Programme, um eine Stimme täuschend echt nachzumachen, sind über das Internet inzwischen preiswert erhältlich. Und sie führen zum Erfolg. Die „Wall Street Journal“-Reporterin Joanna Stern probierte zunächst aus, ob ihre Kollegen und ihre Familie auf ihre Fake-Stimme hereinfallen würden, berichtet das Magazin „Capital“. Ihr Fazit: Je kürzer die Fake-Stimme zu hören war, desto eher gelang es ihr, die Menschen aus ihrem Umfeld zu täuschen. Mulmig wurde ihr, als es ihr gelang, mit ihrer eigenen Deep-Fake-Stimme die automatische Stimmenerkennung bei der Kreditkartenverifizierung ihrer Bank auszutricksen. Sie verband die Reporterin direkt mit einer Service-Mitarbeiterin, ohne weitere Fragen zu stellen. Audio-Deepfakes sind also aktuell noch eine größere Bedrohung als Video-Deepfakes wie im Fall des fiktiven Reiseunternehmens „Kofi Reisen“. Denn die Video-Deep Fakes sind noch nicht perfekt. Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake-Video handelt. Besonders bei den Übergängen wie zum Beispiel zwischen Gesicht und Haaren oder Gesicht und Hals sind Deep Fakes heute noch oftmals unscharf. Außerdem blinzeln Menschen ganz automatisch alle paar Sekunden. Fällt dies weg, kann es sich um ein Deep Fake-Video handeln.

WL (25.08.2023)

Kurztipps

5 Tipps für...
...Zivilcourage im Alltag

Das sollten Sie beachten, wenn Sie in der Öffentlichkeit eine...

5 Tipps für...
...sicheres Homeschooling/digitales Lernen

Darauf sollten sie achten, wenn der Unterricht Ihrer Kinder zuhause...

5 Tipps für...
...den Verdachtsfall auf Kindesmissbrauch

So sollten Sie sich verhalten, wenn Sie in ihrem Umfeld einen...

5 Tipps für...
...ein sicheres Internet für Kinder

Darauf sollten Sie achten, wenn Sie Ihre Kinder oder Schüler vor...

5 Tipps für...
...sicheres Online-Dating

Darauf sollten Sie bei der Partnersuche im Netz achten.

5 Tipps für...
...das Baden in offenen Gewässern

Darauf sollten Sie achten, wenn Sie in offenen Gewässern wie...

5 Tipps für...
...eine sichere Fahrt auf dem E-Scooter

Darauf sollten Sie achten, wenn Sie mit dem Elektroroller unterwegs...

5 Tipps für...
...den Umgang mit Sozialen Medien

Diese Tipps helfen Ihnen, Social-Media-Kanäle sicher zu nutzen.

5 Tipps für...
...die Karnevalszeit

Ob Karneval, Fasching oder Fastnacht – darauf sollten Sie achten.

5 Tipps für...
...ein sicheres Passwort

Darauf sollten Sie bei der Passworterstellung achten.

5 Tipps für...
...die App-Nutzung

Das sollten Sie beachten, wenn Sie Apps herunterladen und nutzen.

5 Tipps für...
...ein sicheres Fahrrad

So machen Sie Ihr Fahrrad fit für den Frühling.

5 Tipps für...
...einen sicheren Computer

So schützen Sie Ihren PC vor Viren, Trojaner und „Phishing“

5 Tipps für...
...ein sicheres Smartphone

So schützen Sie Ihr Smartphone und Ihre Daten vor Hackern und Betrug.

5 Tipps für...
...das richtige Verhalten im Notfall

Was Sie tun sollten, wenn Sie einer verletzten Person helfen wollen.

5 Tipps für...
...sicheres Online-Shopping

Worauf Sie beim Einkauf im Internet achten sollten

Weitere Infos für Lehrer / Erzieher

Strategie und Ermittlungsarbeit am Beispiel NRW

Angriffe auf Flüchtlingsunterkünfte sowie die sogenannten...[mehr erfahren]

Männerberufe und Mädchen

Der Girls’ Day im Polizeipräsidium Köln

In vielen Ausbildungsberufen und Studiengängen in den Bereichen IT,...[mehr erfahren]

„Für wie viele Likes zieht ihr euch aus?“

Der neueste Trend aus den USA heißt „YouNow“ – ein Dienst, mit dem...[mehr erfahren]

Raus aus dem Klassenzimmer

Vorschriften und Aufsichtspflicht bei der Klassenfahrt

Eine Klassenfahrt kann schon einmal damit enden, dass Rettungswagen,...[mehr erfahren]

Erste Hilfe per Anleitung

Einen Erste-Hilfe-Kurs hat fast jeder irgendwann einmal absolviert,...[mehr erfahren]