Anzeige
Gefährliche Masche

Kriminelle machen Enkeltrick mit KI noch perfider

  • Veröffentlicht: 15.12.2023
  • 13:31 Uhr
  • Momir Takac

Der Enkeltrick ist für Kriminelle ein Evergreen, wenn es darum geht, Senior:innen abzuzocken. Dank KI wird der Betrug immer perfider.

Anzeige

Das Wichtigste in Kürze

  • Immer wieder tappen Senior:innen beim Enkeltrick in die Falle.

  • Kriminelle wenden inzwischen eine Methode an, die den Notfall viel realistischer erscheinen lässt.

  • Künstliche Intelligenz (KI) macht's möglich.

Auch wenn Politiker:innen und sogar Erfinder:innen von Programmen vor den Gefahren warnen, erweist sich Künstliche Intelligenz (KI) in vielen Bereichen des Lebens als nützliche Hilfe, etwa in der Wissenschaft, der Medizin oder im Arbeitsalltag. Doch sie wird immer häufiger missbräuchlich verwendet, weshalb die EU strengere Einsatzregeln beschloss. Inzwischen haben auch Enkeltrick-Betrüger:innen die Vorzüge der Technik erkannt und ihre Methoden verbessert.  

Enkeltrick: Kriminelle nutzen KI

Früher durchforsteten sie Telefonbücher, um potenzielle Opfer ausfindig zu machen, heute bieten die sozialen Medien einen wahren Schatz. Ob Facebook, Instagram oder TikTok: Nutzer:innen geben auf den Plattformen im Netz viele Informationen preis. Auch bei WhatsApp bedienen sich Kriminelle. Ein Video reicht aus, um die Stimme eines Familienangehörigen mithilfe von KI nachzuahmen. Sogar Sprachfetzen, den Rest erledigt die Software.

Anzeige
Anzeige
:newstime

"BR24" sprach mit Udo Schneider vom Sicherheitsunternehmen Trend Micro. Der Experte schilderte einen Fall, indem eine Mutter angerufen wurde. Am anderen Ende der Leitung gab ein Erpresser an, die Tochter entführt zu haben. Im Hintergrund waren Schreie zu hören, die der Stimme der Tochter ähnelten.

Experte: Voice Cloning "ohne große Kenntnisse und ohne teure Ausrüstung" machbar

Schneider zufolge lässt sich dieses auch Deepfake genannte Voice Cloning "ohne große Kenntnisse und ohne teures Equipment erstellen". Einfache Smartphone-Apps können ganz schnell beliebige Dinge in Originalstimme nachsprechen. Das Perfide daran: Die vermeintlichen Notsituationen erscheinen viel realistischer und erhöhen die Wahrscheinlichkeit, dass das Enkeltrick-Opfer in die Falle tappt.

Im Video: KI: Dieses Model verdient Unsummen - und existiert gar nicht

KI: Dieses Model verdient Unsummen - und existiert gar nicht

Doch man kann sich schützen: Der Thüringer Verbraucherzentrale zufolge soll man beim Gespräch darauf achten, ob die Stimme abgehackt oder unregelmäßig spricht, schreibt "mdr.de". Im Zweifel solle man auflegen und die oder den entsprechende:n Verwandte:n selbst anrufen. Auch könne es ratsam sein, sich als älterer Mensch aus dem Telefonbuch austragen zu lassen. So können Betrüger:innen einen nicht ausfindig machen. Vor Betrug ist jedoch keiner sicher. In Sachsen überwies das Gesundheitsministerium Kriminellen 225.000 Euro.

  • Verwendete Quellen:
  • mdr.de: "Enkeltrick: KI ahmt Stimmen von Verwandten nach"
Mehr News und Videos
urn:newsml:dpa.com:20090101:241126-935-345451
News

Kein Lotto-Gewinner: 120 Millionen Euro weiter im Eurojackpot

  • 26.11.2024
  • 23:34 Uhr