“Aiuto mamma sono in pericolo, mi servono soldi”: la truffa della voce clonata dall’Intelligenza Artificiale

0

Di pari passo con le innovazioni tecnologiche arrivano anche le evoluzioni delle truffe, sempre più raffinate e pronte a sfruttare quell’intelligenza artificiale che sta entrando ormai nel nostro vivere quotidiano.

E dunque alle email di richiesta di aiuto o alle persone che chiedono di pagare un debito contratto da un parente, ecco arrivare le telefonate con la voce dei propri cari.

Il fenomeno è in rapido sviluppo in America e sul Washington Post viene raccontata la storia di Ruth Card, 73 anni, e Greg Grace, di 75 anni. La coppia residente a Regina, Saskatchewan, in Canada, ha ricevuto una chiamata allarmata di quello che credevano loro nipote che chiedeva dal carcere un aiuto immediato per pagare la cauzione. I due si sono precipitati alla loro filiale per prelevare 3.000 dollari canadesi, il massimo giornaliero per poi dirigersi in un’altra banca pronti a fare altrettanto. Fortunatamente il direttore della seconda banca, a conoscenza di questo nuovo tipo di truffa, li ha messi in guardia.

Solo allora si sono resi conto di essere stati ingannati.  “Eravamo convinti di parlare con nostro nipote Brandon” hanno dichiarato al Washington Post.

Le truffe per furto d’identità in America hanno trovato un’arma in più nelle nuove tecnologie che permettono facilmente e a buon mercato di clonare le voci, convincendo le persone, spesso anziani, che i loro cari siano in difficoltà. Dai dati della Federal Trade Commission, emerge che nel 2022 le segnalazioni di questo tipo di truffa sono state più di 36.000 e di queste oltre 5.100 avvenute per telefono, per un giro di loschi affari di oltre 11 milioni di dollari.

Lo schema è sempre lo stesso: un truffatore clona la voce di qualcuno degno di fiducia – un bambino, un familiare, amante o un amico – e convince la vittima a inviare loro del denaro perché in difficoltà.

Le persone cadute in questa trappola dichiarano sempre di aver agito d’istinto, immediatamente, spinti dalla preoccupazione per aver ascoltato la voce dei propri cari in pericolo.

Il software di Intelligenza Artificiale analizza ciò che rende unica la voce di una persona, inclusi età, sesso e accento, e cerca in un vasto database di voci per trovarne di simili. Può quindi ricreare il tono, il timbro e i singoli suoni della voce di una persona per creare un effetto complessivo simile. È richiesto solo un breve campione di audio, anche 30 secondi, che può essere ricavato da video postati su Youtube, podcast, TikTok, Instagram o Facebook.

Rintracciare questi truffatori può risultare particolarmente difficile perché potrebbero utilizzare un telefono con sede in qualsiasi parte del mondo, rendendo difficile persino identificare quale agenzia abbia giurisdizione su quel caso particolare.

A questo va aggiunto il fatto che i dipartimenti di polizia potrebbero non avere abbastanza denaro e personale per finanziare un’unità dedicata al monitoraggio delle frodi.

E dunque attenzione, anche dalle nostre parti, perché oltre a questa nuova strabiliante tecnologia potremmo importare presto anche questo nuovo tipo di truffa.

Mauro Monti
Latest posts by Mauro Monti (see all)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *