Il team di McAfee ha rilevato un incremento delle truffe che fanno leva sull’intelligenza artificiale. I criminali informatici stanno infatti sfruttando con sempre maggiore costanza tecnologie ad hoc per clonare la voce e convincere i familiari delle vittime colpite a inviare loro del denaro. Il 25% delle persone intervistate che hanno preso parte a un apposito sondaggio dichiara infatti di essere rimasta vittima di una “AI voice scam”.
Intelligenza artificiale: aumentano le truffe con la voce clonata
Sfruttando l’intelligenza artificiale è possibile generare una voce quasi indistinguibile dall’originale, adoperando vari tool gratuiti e a pagamento che consentono di ottenere una corrispondenza dell’85% con soli tre secondi di campione audio. Proseguendo con l'addestramento si può raggiungere un'accuratezza del 95%.
Per riuscire nel loro intento, i cybercriminali devono prima rubare un campione vocale della vittima, cosa attuabile con l’accesso ai contenuti multimediali condivisi sui social network o app di messaggistica.
Il passaggio successivo consiste nel trovare i contatti dell'utente mediante un info-stealer, dopodiché i cybercriminali inviano un messaggio vocale o telefonano ad amici e familiari, chiedendo una somma di denaro per varie urgenze.
Un terzo dei partecipanti al sondaggio ha dichiarato di aver perso oltre 1.000 dollari a causa di questa tattica, mentre il 7% ha pagato tra 5.000 e 15.000 dollari.
Per evitare di andare incontro a problemi, gli esperti di McAfee suggeriscono l'adozione di alcune metodiche. Innanzitutto sarebbe bene determinare una parola in codice, nota solo a familiari e amici. Inoltre è preferibile controllare la fonte, magari telefonando direttamente al possibile cybercriminale e chiedendo informazioni per le quali non è prevista una risposta da parte dell'intelligenza artificiale.