Anzeige
Anzeige
Für Links auf dieser Seite erhält GIGA ggf. eine Provision vom Händler, z.B. für mit oder blauer Unterstreichung gekennzeichnete. Mehr Infos.
  1. GIGA
  2. Tech
  3. Digital Life
  4. „Hallo Mama“: Wie kann man Schock-Anrufe mit Fake-Stimmen erkennen?

„Hallo Mama“: Wie kann man Schock-Anrufe mit Fake-Stimmen erkennen?

© Getty Images / EllenaZ

„Hallo Mama, es ist etwas Schreckliches passiert“ – nachdem Betrüger in der Vergangenheit vor allem durch WhatsApp-Nachrichten versucht haben, unsichere Nutzer mit Nachrichten dieser Art um ihr Geld zu bringen, geht es jetzt eine Stufe weiter: So mehren sich die Berichte über Schockanrufe, bei der die Stimme von Bekannten per KI imitiert wird.

 
Digitale Sicherheit
Facts 

Anrufe, die so eingeleitet werden, erreichen immer häufiger Leute, die betrogen werden sollen, Bei den Schockanrufen wird vorgegeben, dass Kinder oder Enkel am Apparat sind. Diese teilen mit, in einen Unfall verwickelt zu sein. Mit dem Text „Mama/Papa, es ist etwas ganz Schreckliches passiert“ wird ein Gespräch gestartet, bei man den Tod eines anderen Menschen durch einen Verkehrsunfall verursacht haben soll. Hinter solchen Anrufen steckt eine neue, besonders perfide Stufe des „Enkeltricks“. Ziel ist es, beunruhigte Angerufene zu Zahlungen zu drängen.

Anzeige

„Mama, es ist etwas Schreckliches passiert“: Betrugsmasche per „Voice Cloning“

Angerufene sollen durch diese Schock-Telefonate dazu gebracht werden, schnell Bargeld an eine unbekannte Person zu übergeben, damit die Notsituation zugunsten des eigenen Kinds oder Enkels gelöst werden kann. Tatsächlich sacken so Betrüger aber das Geld ein, während der eigene Nachwuchs – wenn es ihn denn überhaupt gibt – überhaupt nichts von der Situation weiß.

Anzeige

In den vergangenen Monaten wurden entsprechende Schocknachrichten vor allem über unbekannte Nummern als Nachricht bei WhatsApp oder per SMS verschickt. „Dank“ Künstlicher Intelligenz können Betrüger nun aber auch mittels „Voice Cloning“ die Stimmen der eigenen Familienmitglieder imitieren, um den Notfall am Telefon im persönlichen Gespräch noch echter wirken zu lassen. Vor allem für ältere Menschen verbirgt sich hier ein hohes Risiko, sich täuschen zu lassen und Geld zu verlieren. Entsprechende Nachrichten tauchen in den letzten Monaten immer wieder auf. Dabei gibt es deutschlandweit betroffene, etwa in Nordrhein-Westfalen (Quelle: WDR), Bayern (Quelle: PNP), Niedersachsen (Quelle: Zevener Zeitung) und Berlin (Quelle: Berliner Zeitung).

„Voice Cloning“: Stimme mit KI klonen

Dank neuer KI-Tools können Betrüger bereits aus wenigen Wortschnipseln Stimmen imitieren und daraus komplett neue Gespräche erstellen. Die Vorlage für die Tondateien finden Cyber-Kriminelle zum Beispiel in Videos auf sozialen Netzwerken. Laut dem Sicherheitsunternehmen McAfee reicht bereits ein Clip mit einer Länge von 3 Sekunden, um daraus entsprechendes neues Ton-Material zusammenzuschneiden (Quelle: Caschys Blog).

Anzeige

KI-Anrufe mit Fake-Stimmen: So schützt man sich

Um sich vor den KI-getriebenen Schockanrufen zu schützen, sollte man vor allem Folgendes beachten:

  • Stellt den Betrügern kein Material zur Verfügung. Vermeidet es also, Videos und Audioaufnahmen von euch öffentlich online zu stellen.
  • Überlegt daher, ob zum Beispiel das Urlaubsvideo mit euren Eindrücken und gesprochenen Erlebnisberichten bei Facebook, Instagram, TikTok und Co. hochgeladen werden muss.
  • Könnt ihr darauf nicht verzichten, überlegt, wem ihr solche Aufnahmen schickt. Stellt ihr sie öffentlich online, könnt ihr den Nutzerkreis einschränken, der darauf zugreifen kann. Private Inhalte solltet ihr zum Beispiel bei Facebook nie öffentlich zur Schau stellen, sondern lediglich eure Kontakte darauf zugreifen lassen.
  • Bekommt ihr bei Facebook und Co. Kontaktanfragen von Unbekannten und könnt diese Nutzer nicht zuordnen, lehnt sicherheitshalber ab.
Anzeige
  • Sensibilisiert euer Umfeld und informiert Eltern, Großeltern, Onkel, Tanten etc. darüber, dass solche betrügerischen Anrufe kursieren. Weist darauf hin, dass Cyber-Kriminellen Notlagen in Anrufen vorgeben und inzwischen auch dazu in der Lage sind, Stimmen zu imitieren.
  • Sicherheitshalber solltet ihr mit euren nahen Verwandten und Bekannten ein Code-Wort ausmachen. Nach dem Wort kann dann gefragt werden, wenn ein Gespräch einen verdächtigen Verlauf nimmt.
  • Neben einem Code-Wort können auch Nachfragen zu Informationen helfen, die Fremde nicht kennen dürften. Dabei sollte es sich zum Beispiel um gemeinsame Erlebnisse aus der Vergangenheit handeln. Einfache Fakten wie die ehemalige Grundschule oder der Lieblings-Fußballverein lassen sich hingegen oft per Online-Recherche über die sozialen Netzwerke herausfinden.
  • Daneben könnt ihr auch einen Rückruf empfehlen, wenn eine Konversation verdächtig verläuft.
  • Die eigene Telefonnummer sollte nie leichtsinnig in irgendwelchen Online-Diensten eingetragen werden. Betrüger kommen zum Beispiel an solche Daten durch gestohlene Datensätze und Datenbanken für Fake-Gewinnspiele oder Ähnliches.
  • Generell sollte man nicht zu viele Informationen von sich im Netz teilen. Mit Angaben aus sozialen Netzwerken können Betrüger zum Beispiel schnell herausfinden, wer Enkel hat und auf entsprechende Anrufe leichter anspringen könnte.
  • Zudem sollte man bei Anrufen von unbekannten Nummern immer skeptisch sein und sie hinterfragen. Dabei sollte man auch nie leichtfertig „Ja“ sagen.
Anzeige

Mit der aktuellen „Voice Cloning“-Technologie lassen sich Gespräche noch nicht „live“ führen. Neue Nachrichten müssen also je nach Gesprächsverlauf generiert werden. Das führt im Telefon-Dialog zu Verzögerungen. Der Betrug lässt sich also schnell identifizieren, wenn man ein relativ komplexes Gespräch aufbaut und es immer wieder Pausen vor den Antworten gibt. Anders sieht es aus, wenn Sprachnachrichten via WhatsApp, iMessage und Co. verschickt werden. Diese Gespräche laufen schließlich nicht ganz synchron ab und Verzögerungen fallen nicht weiter auf.

Hat dir der Beitrag gefallen? Folge uns auf WhatsApp und Google News und verpasse keine Neuigkeit rund um Technik, Games und Entertainment.

Anzeige