Eine Google-KI schickt Nutzer in die Arme von Betrügern.
Wer derzeit bei Google nach Kontaktmöglichkeiten zu Kundendiensten sucht, läuft verstärkt Gefahr, auf Betrüger hereinzufallen. Ein Beispiel aus den USA zeigt, wie leicht sich Künstliche Intelligenz manipulieren lässt – und wie teuer das werden kann.
Google: KI schickt Nutzer in Betrugsfalle
Alex Rivlin aus Las Vegas wollte nur schnell eine Shuttle-Buchung für seine Kreuzfahrt erledigen. Dazu suchte er per Google nach der Nummer der Hotline von Royal Caribbean, fand sie schnell und rief direkt an. Am anderen Ende der Leitung meldete sich ein vermeintlicher Mitarbeiter des Kreuzfahrt-Unternehmens, der alle nötigen Infos parat hatte und sogar ein günstigeres Angebot versprach. Rivlin zahlte am Ende rund 768 US-Dollar.
Die angezeigte Rufnummer stammte ihm zufolge aus den AI Overviews von Google, die Suchergebnisse mithilfe von KI zusammenfassen. Am nächsten Tag entdeckte Rivlin dann aber gleich mehrere verdächtige Abbuchungen auf seinem Konto. Die Nummer der Hotline war anscheinend gefälscht und das Gespräch nicht mehr als eine gut inszenierte Falle. Er hat inzwischen die Kreditkarte sperren lassen und die Abbuchungen wurden rückgängig gemacht.
KI macht alte Betrugsmaschen wieder gefährlich
Betrüger nutzen für die AI Overviews anscheinend bekannte Tricks auf neue Weise. Sie streuen falsche Nummern in Foren, auf Bewertungsseiten oder in Blogs, bis Google, ChatGPT und andere KI-Dienste diese Informationen als glaubwürdig einstufen. Wer Telefonnummern googelt, landet dann womöglich direkt bei einem Fake-Support.
Laut einer Untersuchung der Washington Post tauchen auch gefälschte Hotlines von Kreuzfahrtanbietern wie Disney oder Princess in den KI-Antworten von Google und ChatGPT auf. Google hat eigenen Angaben zufolge Maßnahmen gegen einige der enttarnten Nummern ergriffen und gibt an, seine Systeme diesbezüglich verbessern zu wollen. Bis dahin besteht jedoch ein nicht zu unterschätzendes Risiko.

