Texte, Bilder oder Gesprochenes können mittlerweile mit der entsprechenden KI-basierten Anwendung durch nur wenigen Mausklicks manipuliert oder sogar völlig neu erstellt werden. Die Ergebnisse werden stetig besser und Fälschungen als solche sind immer schwerer zu erkennen. Wir müssen uns also mehr und mehr fragen, ob wir es mit echten oder falschen Informationen zu tun haben – selbst wenn sie vermeintlich von vertrauenswürdigen Menschen stammen. So wurden bereits Politikerinnen oder Fernsehmoderatoren Worte in den Mund gelegt, und auch im privaten Umfeld sind wir nicht mehr vor Manipulationen gefeit. So erscheinen in den letzten Wochen mehr und mehr Medienberichte darüber, dass sogenannte Deepfakes auch für Betrugsmaschen wie den Enkeltrick genutzt werden können. Hier erfahren Sie, was hinter dem Begriff Deepfake steckt, wie sie beim Enkeltrick eingesetzt werden können, aber auch wie Sie betrügerische Absichten entlarven können.
Deepfakes: täuschend echte Nachahmung
Der Begriff „Deepfake“ setzt sich aus den Wörtern „Deep Learning“ (englisch, tiefes Lernen) und „Fake“ (englisch, Täuschung) zusammen. Als Deepfake gelten täuschend echt wirkende, manipulierte Bild-, Audio- oder auch Videoaufnahmen, die mithilfe von KI erstellt werden. Ein Deepfake, über das derzeit häufig berichtet wird, betrifft Christian Sievers vom Heute Journal. In einem gefälschten Video macht der seriöse Nachrichtensprecher scheinbar Werbung für eine zweifelhafte Finanzplattform. Seine Reaktion: „Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich… Echt nicht. Vorsicht, fiese Betrugs-Masche mit KI in soz. Medien. Schlimme neue Welt. Und von Facebook und Co: Nur Achselzucken.“
Deepfakes und Enkeltrick: Die perfekte Imitation von Angehörigen
Beim Enkeltrick wurden bisher zum Beispiel gefälschte Anrufe oder Nachrichten per Messenger dazu missbraucht, um ältere Menschen dazu zu bringen, Geld oder Informationen preiszugeben. Durch Deepfakes können Betrügerinnen und Betrüger den Enkeltrick noch schwerer als Betrug erkennbar zu machen:
- Video-Manipulation: Es können Videos erstellt werden, in denen die Gesichter von Angehörigen auf gefälschte Situationen übertragen werden.
- Stimmenimitation: Mithilfe von Deepfakes können die Stimmen von Familienmitgliedern oder Freunden nachgeahmt werden, um Anrufe noch überzeugender zu gestalten.
Über ein solches Beispiel berichtete kürzlich der NDR: Annegret H. erreichte ein vermeintlich von ihrer Tochter stammender Anruf, indem die Tochter ihr am Telefon in Tränen aufgelöst berichtete, sie habe einen Unfall gebaut. Danach wurde sie von ihr gebeten 120.000 Euro zu bezahlen. Ein Anruf auf dem Handy ihrer Tochter brachte zum Glück die Gewissheit, dass es sich bei dem vorherigen Gespräch um einen Betrug gehandelt hat.
Die Datengrundlage für diese Deepfakes können zum Beispiel kurze, in den sozialen Medien geteilte Videos sein, oder die Betrüger und Betrügerinnen verwickeln Angehörige in ein Telefongespräch und nutzen die Audiodaten aus diesem Gespräch. So gibt es Systeme, die für einen überzeugenden Deepfake nur sehr wenig Audiomaterial benötigen.
Schutz vorm Enkeltrick
Die Gefahr, dass Deepfakes auch beim Enkeltrick eingesetzt werden, ist real. Es lässt sich aber noch nicht beziffern, wie oft KI-basierte Methoden bereits tatsächlich dafür genutzt werden, denn in Stresssituationen wie beim Enkeltrick können auch nur ähnliche Stimmen für Angehörige gehalten werden. Es gibt einige Maßnahmen, die Sie ergreifen können, um sich gegen den Enkeltrick – mit oder ohne KI – zu schützen:
- Identität prüfen: Überprüfen Sie immer die Identität einer Person, die finanzielle Unterstützung oder persönliche Informationen anfordert. Nutzen Sie alternative Kommunikationskanäle, um sicherzustellen, dass es sich um eine echte Anfrage handelt, indem Sie die betroffene Person zum Beispiel selbst anrufen. Eine andere Möglichkeit um festzustellen, ob man wirklich mit Angehörigen redet, kann ein gemeinsames Codewort sein oder Sie stellen Fragen, die nur die echte Person beantworten kann.
- Gesunde Skepsis: Seien Sie skeptisch gegenüber plötzlichen finanziellen Anfragen oder ungewöhnlichen Geschichten. Nehmen Sie sich Zeit, um über die Situation nachzudenken und reagieren Sie nicht überstürzt, indem Sie Geld überweisen oder persönliche Informationen preisgeben.
- Gefälschte Stimmen erkennen: Hinweise, dass es sich um keine echte Stimme handelt, sind z.B. ein metallischer Klang, falsche bzw. monotone Aussprache, fehlender persönlicher Akzent, hohe Verzögerung oder ungewöhnliche Pausen bei den Antworten.
- Informiert bleiben: Informieren Sie sich über aktuelle Betrugsmaschen und die Möglichkeiten neuerer Technologien wie Deepfakes. Je mehr Sie darüber wissen, desto besser sind Sie darauf vorbereitet, richtig zu reagieren.
- Auflegen: Bei einem entsprechenden Verdacht, beenden Sie das Gespräch am besten sofort und wenden sich an die Polizei und erstatten gegebenenfalls Anzeige.
Weitere Informationen
Enkeltrick – Medienberichte (Auswahl)
Deutschlandfunk: Zocken Betrüger meine Oma mit dem KI-Enkeltrick ab?
ARD: Enkeltrick mit Künstlicher Intelligenz – So erkennt man ihn
NDR: Wenn Betrüger die KI für den Enkeltrick nutzen
Spiegel.de: Enkeltrick dank Künstlicher Intelligenz jetzt noch schäbiger
RBB24: Die KI lernt jetzt den Enkeltrick
WDR: Enkeltrick mit Deepfake: Wie Betrüger künstliche Intelligenz nutzen
Deepfakes
Bundesamt für Sicherheit in der Informationstechnologie (BSI): Deepfakes – Gefahren und Gegenmaßnahmen
Landesmedienzentrum Baden-Württemberg: Erklärvideo Deepfakes aufdecken
Deutschland sicher im Netz / Digitalführerschein: Deepfakes: Ich sehe was, was es nicht gibt
Polizei-Beratung: Künstliche Intelligenz: Wenn Deepfakes zu „News“ werden
Wer technisch mehr erfahren möchte: Deutsches Forschungszentrum für Künstliche Intelligenz: Was sind Deepfakes (Interview)