Kriminalci koriste kloniranje glasa uz pomoć veštačke inteligencije, ciljajući žrtve u hitnim situacijama
Najnoviji talas telefonskih prevara koristi napredne AI alate za kloniranje glasova članova porodice ili prijatelja, čime se podiže nivo sofisticiranosti ovih napada. Prema industrijskim izvorima, prevaranti sada mogu da upotrebe samo nekoliko sekundi audio snimka sa društvenih mreža ili javno dostupnih video zapisa kako bi kreirali verodostojnu kopiju nečijeg glasa.
Uz minimalnu količinu originalnog materijala, AI generiše rečenice koje zvuče identično kao prava osoba, uključujući emocije i intonaciju. Ova tehnološka mogućnost eliminiše dosadašnje signale upozorenja, kao što su neprirodan ton ili loša dikcija, zbog čega je žrtvama izuzetno teško da prepoznaju prevaru.
Najčešći scenario uključuje hitan telefonski poziv od “voljene osobe” koja tvrdi da je u nevolji i traži brzu novčanu pomoć. U stvarnim slučajevima, žrtve su dobijale pozive u kojima im je navodno dete ili prijatelj, uz uverljiv i emotivan glas, tražio novac zbog nesreće ili druge krizne situacije. Brojevi sa kojih se poziva često izgledaju legitimno, što dodatno otežava prepoznavanje rizika.
Statistički podaci pokazuju da je više od 70% ovih incidenata zasnovano na izazivanju panike i urgentnosti, kako bi žrtva reagovala impulsivno i bez provere. Prevaranti uglavnom traže uplatu putem kriptovaluta, poklon kartica ili brzih transfera, što praktično onemogućava povraćaj novca. Istraživanja ukazuju da većina ljudi nije u stanju da razlikuje AI-generisani glas od stvarnog, a tačnost identifikacije može pasti ispod 30%.
Sa razvojem veštačke inteligencije, napadi postaju masovniji i lakše izvodljivi – AI omogućava simultano pozivanje velikog broja potencijalnih žrtava bez dodatnih resursa. Stručnjaci ističu da ovakav vid prevare više nije retkost, već ozbiljan globalni izazov koji pogađa sve starosne grupe.
Preporuka za zaštitu uključuje izbegavanje impulsivnog reagovanja na pozive sa zahtevom za novac i momentalno potvrđivanje identiteta osobe putem nezavisnog kanala. Dobar savet je dogovor unutar porodice o specifičnoj “tajnoj reči” koju samo članovi znaju. Takođe, preporučuje se ograničavanje javnog deljenja audio snimaka i ličnih informacija. U eri AI tehnologije, glas više ne predstavlja pouzdan dokaz identiteta, a svesnost o ovakvim prevarama postaje ključna za ličnu bezbednost.