Kriminella stjäl människors röster med AI för att lura anhöriga
Hem TEKNIK & IT-LÖSNINGARSÄKERHET Kriminella stjäl människors röster med AI för att lura anhöriga

Kriminella stjäl människors röster med AI för att lura anhöriga

Publicerat av: Redaktionen

Framväxten av artificiell intelligens (AI) väntas föra med sig många fördelar till och förändra samhället, men har även gett bedragare ett nytt verktyg för att lura människor.

Ett exempel är att de skapar realistiska röstkloner från prover som samlats in online och att sedan använder dessa röster för att lura vänner, släktingar och kollegor.

”En billig och effektiv programvara för maskininlärning (ML) kan skapa mycket övertygande röstkloner av individer, inklusive offentliga personer. Bedragare använder dessa röstkloner för att utge sig för att vara en pålitlig person i omgivningen, som till exempel en familjemedlem eller kollega, för att vinna offrets förtroende och få ut känslig information eller pengar”, säger Adrianus Warmenhoven, cybersäkerhetsexpert på NordVPN.

Det finns många potentiella källor till röstprover för kloning. Från den enorma mängd videoinnehåll som användare självmant laddar upp på sociala medier till röstinspelningar från evenemang, mediaintervjuer eller bara vardagslivet. Den växande trenden visar dock att kriminella även samlar in röstprover i samband med bluffsamtal.

”Även om du märker att du talar med en bedragare betyder det inte att du är säker. Även om du känner att du i en situation har övertaget, underskatta inte den teknik som står till deras förfogande. Om samtalet spelas in och du ger ett prov på hur din röst låter kan den användas för en riktad attack mot vänner eller familjemedlemmar”, fortsätter Warmenhoven.

Kriminella stjäl människors röster med AI för att lura anhöriga

Brottslingar använder klonade röster för att lura även de mest vaksamma människorna, men äldre är som vid många andra bedrägerier de vanligaste måltavlorna. De mest populära sätten för bedragare att lura till sig pengar är att utge sig för att vara personer som offren litar på och hitta på historier om bilolyckor, skador och andra brådskande eller känsliga scenarier.

Tre sätt för att undvika bli lurad av röstkloning

För att skydda sig mot röstkloningsbedrägerier rekommenderar NordVPN:s cybersäkerhetsexpert Adrianus Warmenhoven följande förebyggande åtgärder:

  • Var försiktig med publiceringar på sociala medier. Sociala medier är den största allmänt tillgängliga resursen för röstprover för cyberbrottslingar. Användare bör vara försiktiga med vad de lägger upp på sociala medier, då inlägg kan användas för att med AI-verktyg skapa trovärdiga deepfakes och röstkloner.
  • Lägg på luren vid upptäckt av ett bluffsamtal. Bedragare är inte alltid ute efter pengar och data redan vid första samtalet. Att samla in tillräckligt många röstprover för att skapa en röstklon kan också vara syftet. När användaren upptäcker att de utsätts för bluffsamtal bör de omedelbart lägga på och inte ge bedragaren en chans att spela in deras röst. Desto längre samtalet pågår, desto fler prover får brottslingarna för att producera mer trovärdiga kloner.
  • Kontrollera innan åtgärd. Om användaren får ett samtal från ett okänt eller hemligt nummer och hör sin vän, familjemedlem eller kollega göra en ovanlig förfrågan bör de lägga på och ringa tillbaka via de kommunikationskanaler som vanligen används. På så sätt kan man vara säker på att man pratar med rätt person.

 

 

Relaterade Artiklar