Betrug durch KI-Stimmenklonen gefährdet Millionen, Starling Bank warnt

September 18, 2024
ai-voice-cloning-fraud-puts-millions-at-risk,-starling-bank-warnt
Voice recording. Man touching microphone icon on smart phone. Mobile application Record sound, audio, music, voice message. or Use your voice to direct AI to search for information on Internet.

Die Starling Bank, eine digitale Bank mit Sitz in Großbritannien, warnt eindringlich vor der wachsenden Bedrohung durch das Klonen von Stimmen durch künstliche Intelligenz (KI). Betrüger nutzen die KI-Technologie, um Stimmen mit nur drei Sekunden Ton zu replizieren, die sie leicht aus online geteilten Videos oder Sprachclips gewinnen können. Sobald eine Stimme geklont ist, verwenden die Betrüger sie, um sich in Telefonanrufen als eine Person auszugeben, um deren Familie und Freunde zu täuschen und oft um Geld zu bitten.

Das Stimmenklonen ermöglicht es Betrügern, überzeugende Telefonanrufe zu gestalten, die den Opfern vorgaukeln, dass sie mit jemandem sprechen, dem sie vertrauen. Diese Betrugsmethode ist besonders effektiv, weil sie das Vertrauen und die Vertrautheit der Menschen mit ihren Angehörigen ausnutzt, so dass es für die Betroffenen schwierig ist, den Betrug zu erkennen.

Laut der Starling Bank hat diese Art von Betrug das Potenzial, Millionen von Menschen zu treffen, da das Risiko weiter steigt. In einer kürzlich in Zusammenarbeit mit Mortar Research durchgeführten Umfrage stellte die Bank fest, dass mehr als ein Viertel der 3.000 Befragten im vergangenen Jahr auf einen KI-Stimmenklon-Betrug gestoßen ist. Trotz der zunehmenden Häufigkeit dieser Betrügereien sind sich viele der Gefahr nicht bewusst. 46% der Teilnehmer gaben zu, dass sie noch nie von einem KI-Stimmenklonungsbetrug gehört hatten.

Eines der besorgniserregendsten Ergebnisse der Umfrage war, dass 8 % der Befragten angaben, sie würden einem Freund oder Verwandten immer noch Geld per Telefon schicken, selbst wenn die Anfrage ungewöhnlich erscheint. Dies zeigt, wie überzeugend KI-geklonte Stimmen sein können. Sie imitieren nicht nur den Klang der Stimme einer Person, sondern auch die subtilen emotionalen Hinweise, die den Betrug echt erscheinen lassen können.

Da sich die KI-Technologie in rasantem Tempo weiterentwickelt, steigt auch das Missbrauchspotenzial. Die Starling Bank fordert die Menschen auf, Maßnahmen zu ergreifen, um sich vor dieser Art von Betrug zu schützen. Eine empfohlene Maßnahme ist die Einrichtung einer „sicheren Phrase“ mit Freunden und Familienmitgliedern. Diese eindeutige Phrase kann verwendet werden, um die Identität einer Person während eines Telefonats zu verifizieren und bietet eine zusätzliche Sicherheit gegen Betrüger, die möglicherweise eine geklonte Stimme verwenden.

Die Starling Bank rät jedoch davon ab, diese sichere Phrase per Textnachricht weiterzugeben, da sie von Betrügern abgefangen werden könnte. Wenn die Phrase per SMS weitergegeben werden muss, empfiehlt die Bank, die Nachricht sofort nach dem Lesen zu löschen, um das Risiko zu verringern, dass sie missbraucht wird.

Da KI-Stimmenklon-Betrug immer häufiger vorkommt, spiegelt die Warnung der Bank größere Bedenken darüber wider, wie KI missbraucht werden kann. Neben Betrug birgt KI auch Risiken für Identitätsdiebstahl, Bankbetrug und die Verbreitung von Falschinformationen. Anfang dieses Jahres hat OpenAI ein Tool zur Nachbildung von Stimmen entwickelt, aber beschlossen, es wegen des Missbrauchspotenzials nicht zu veröffentlichen.

Angesichts der zunehmenden Bedrohung durch KI-gestützte Betrügereien ist es wichtig, dass Sie wachsam bleiben und die notwendigen Vorkehrungen treffen, um sich und Ihre Angehörigen davor zu schützen, Opfer dieser immer raffinierteren Formen des Betrugs zu werden.

Latest from Technik

vw-sparmasnahmen-massive-einschnitte

VW-Sparmaßnahmen: Massive Einschnitte

Werksschließungen und Gehaltskürzungen drohen Die Lage bei Volkswagen spitzt sich dramatisch zu: Das Unternehmen plant eine umfassende Restrukturierung, die zahlreiche Arbeitsplätze gefährdet und deutliche

withemes on instagram

[instagram-feed feed=1]