/

Bank warnt: AI-Voice-Cloning-Betrug könnte Millionen von Menschen treffen

ai-voice-cloning-scams-could-target-millions,-warns-bank

Millionen von Menschen könnten bald Opfer von Betrügereien werden, bei denen künstliche Intelligenz (KI) Stimmen klont, so eine Warnung der britischen Starling Bank. Der Online-Kreditgeber hat Alarm geschlagen, weil Betrüger mit Hilfe von KI Stimmen klonen können, wofür oft nur drei Sekunden Tonmaterial nötig sind. Diese Audiodaten, die oft leicht aus öffentlich zugänglichen Online-Inhalten wie Videos oder Sprachaufnahmen gewonnen werden können, können dazu verwendet werden, sich bei Telefonanrufen als jemand anderes auszugeben.

Sobald ein Betrüger die Stimme einer Person erfolgreich kopiert hat, zielt er auf die Freunde und die Familie der Person ab. Die von der KI geklonte Stimme wird dann verwendet, um gefälschte Anrufe zu inszenieren, bei denen in der Regel Geld verlangt wird. Diese Form des Betrugs ist besonders besorgniserregend, weil sie das Vertrauen der Menschen in ihre Angehörigen ausnutzt, was den Betrug sehr glaubwürdig und potenziell schwer zu entdecken macht.

Die Starling Bank hat darauf hingewiesen, dass Millionen von Menschen von diesem Betrug betroffen sein könnten und dass das Risiko schnell wächst. Eine von der Bank in Zusammenarbeit mit Mortar Research durchgeführte Umfrage hat gezeigt, dass bereits eine beträchtliche Anzahl von Menschen von diesen Betrügereien betroffen ist. Mehr als ein Viertel der 3.000 Befragten gab an, dass sie in den letzten 12 Monaten Ziel von KI-Stimmenklon-Betrügereien waren. Trotz dieser Zahlen ist das Bewusstsein für diese Art von Betrug nach wie vor gering: 46 % der Befragten gaben zu, dass sie nicht wussten, dass es solche Betrügereien gibt.

Einer der beunruhigenderen Aspekte der Umfrage ist, dass 8 % der Befragten angaben, dass sie immer noch Geld senden würden, wenn sie von einem Freund oder Familienmitglied per Telefon darum gebeten würden, selbst wenn sie die Situation ungewöhnlich fänden. Dies unterstreicht die Effektivität des KI-Stimmenklonens bei der Nachahmung der feinen Nuancen der Stimme eines Menschen und der Täuschung selbst skeptischer Personen.

Da sich die KI-Technologie immer weiter entwickelt und verbessert, wächst auch die Gefahr, dass sie missbraucht wird. Die Starling Bank rät den Menschen, Vorsichtsmaßnahmen zu ergreifen, um sich zu schützen. Eine der Empfehlungen ist die Einrichtung einer „Safe Phrase“ mit nahestehenden Personen – eine zufällige und einprägsame Phrase, die zur Überprüfung der Identität bei Telefongesprächen verwendet werden kann. Diese Methode wird empfohlen, um eine zusätzliche Sicherheitsebene zu schaffen, die sicherstellt, dass selbst wenn ein Betrüger die Stimme einer Person klont, er keinen Zugang zu dieser vereinbarten Phrase hat.

Die Bank warnt davor, diese sichere Phrase per Textnachricht weiterzugeben, da sie auch von Betrügern abgefangen werden könnte. Wenn die Phrase per SMS weitergegeben wird, empfiehlt die Starling Bank, die Nachricht sofort zu löschen, nachdem sie gesehen wurde, um das Risiko einer Aufdeckung zu minimieren.

Die Zunahme des Klonens von KI-Stimmen ist Teil der allgemeinen Besorgnis über das Missbrauchspotenzial von KI. Vom Zugriff auf Bankkonten bis hin zur Verbreitung von Fehlinformationen – der schnelle Fortschritt der Technologie schafft neue Schwachstellen. Anfang dieses Jahres hat das KI-Forschungsunternehmen OpenAI ein Tool vorgestellt, mit dem sich Stimmen replizieren lassen, es aber aufgrund von Bedenken über das Missbrauchspotenzial nicht öffentlich zugänglich gemacht.

Da Betrüger immer raffiniertere Taktiken anwenden, ist es für Privatpersonen wichtig, wachsam zu bleiben und proaktive Maßnahmen zu ergreifen, um sich und ihre Angehörigen davor zu schützen, Opfer von KI-Stimmenklon-Betrug zu werden.