Le tecnologie di intelligenza artificiale che possono clonare la voce delle persone stanno diventando una minaccia sempre più diffusa, utilizzata da cybercriminali per ingannare le loro vittime.

Immaginate di ricevere una chiamata da un parente che, con voce affannata, vi informa di essere coinvolto in un terribile incidente stradale e di aver bisogno urgente di soldi per evitare il carcere. Nonostante la voce e il numero di telefono sembrino quelli del vostro familiare, avvertite un senso di stranezza e decidete di riagganciare e di richiamarlo per verificare. A vostra sorpresa, quando richiamate, la persona all’altro capo del telefono vi comunica di non sapere di cosa stiate parlando. Siete appena scampati a una truffa realizzata da un’intelligenza artificiale.

Il miglioramento delle capacità degli strumenti di intelligenza artificiale ha reso sempre più facile ed economico creare audio falsi ma convincenti, capaci di replicare fedelmente la voce delle persone. Questi cloni vocali sono addestrati su clip audio reali e possono essere regolati per imitare la voce di quasi chiunque, e persino parlare diverse lingue. L’annuncio di un nuovo modello text-to-speech da parte di OpenAI potrebbe ulteriormente migliorare questa tecnologia, rendendola ancora più accessibile.

Tuttavia, i malintenzionati stanno sfruttando questi strumenti per ingannare le proprie vittime, facendole credere di essere al telefono con una persona cara. Anche se non esiste uno strumento simile al Registro delle opposizioni per bloccare le chiamate molestie dei telemarketing, ci sono alcuni accorgimenti che possono aiutare a proteggersi da queste truffe.

Wired ha raccolto una serie di consigli degli esperti per difendersi dalle truffe telefoniche basate sull’AI:

Non sottovalutate la minaccia degli audio AI

«Non c’è solo OpenAI: molte startup tecnologiche stanno lavorando per realizzare audio capaci di replicare quasi alla perfezione il parlato umano, e i progressi nel settore sono sempre più rapidi. “Qualche mese fa vi avremmo dato suggerimenti sulle cose a cui fare attenzione, come le pause o latenze“, spiega Ben Colman, cofondatore e amministratore delegato di Reality Defender. Come molti aspetti dell’intelligenza artificiale generativa, gli audio AI ora sono in grado di imitare in modo più convincente le voci reali. Tutte le strategie di sicurezza che si basano sul rilevamento acustico degli elementi che non tornano durante una telefonata sono quindi superate.

Chiudete la chiamata e richiamate

Come sottolineano gli esperti di sicurezza, fare in modo che una chiamata sembri provenire da un numero di telefono legittimo è relativamente facile. “Molte volte i truffatori falsificano il numero da cui vi chiamano – afferma Michael Jabbara, responsabile globale dei servizi antifrode di Visa –. Dovete essere proattivi“. Che si tratti della vostra banca o di una persona cara, ogni volta che ricevete una chiamata in cui qualcuno vi chiede dei soldi o informazioni personali, chiedete al vostro interlocutore se potete richiamarlo. Cercate il numero online o tra i vostri contatti e fate partire un’altra telefonata, oppure provate a inviare un messaggio su una linea di comunicazione diversa e affidabile, come un servizio di videochat o un’email.

 Trovate una parola in codice

Un consiglio molto popolare è quello di trovare una parola di sicurezza da condividere solo con i vostri contatti stretti e che potete chiedere al telefono. “Potete accordarvi su una parola o una frase che i vostri cari possono usare per dimostrare chi sono veramente“, dice Steve Grobman, chief technology officer di McAfee. Anche se richiamare il vostro interlocutore o verificare la sua identità con un altro mezzo di comunicazione rimane il metodo più efficace, una parola di sicurezza può tornare particolarmente utile per i giovani o i parenti anziani che potrebbero essere difficili da contattare in altro modo.

Fate domande personali

Nel caso in cui non abbiate una parola di sicurezza potete comunque capire se vi trovate di fronte a una chiamata reale rivolgendo una domanda personale alla persona con cui state parlando: “Va bene anche una cosa semplice, come una domanda a cui solo il vostro caro saprebbe rispondere – consiglia Grobman –. Per esempio: ‘Ehi, voglio essere sicuro che sei davvero tu. Puoi ricordarmi cosa abbiamo mangiato a cena ieri sera?’” Assicuratevi che la domanda sia abbastanza specifica per fare in modo che un eventuale truffatore non possa indovinare la risposta.

Potrebbe capitare anche a voi

I cloni audio AI non sono un problema che colpisce solo celebrità e politici, come nel caso dei recenti deepfake del presidente americano Joe Biden. “Un errore comune è pensare che non possa succedere a te, che nessuno possa clonare la tura voce – afferma Rahul Sood, chief product officer di Pindrop, la società di sicurezza che è riuscita a scoprire le probabili origini degli audio che hanno clonato la voce di Biden –. Quello che la gente non capisce è che bastano solo 5-10 secondi della vostra voce presi da una clip di TikTok o da un video su YouTube per creare facilmente il vostro clone“.

Non cedete alle vostre emozioni

Che si tratti di pig butchering o di una telefonata realizzata da un’intelligenza artificiale, i truffatori esperti sono in grado di guadagnarsi la vostra fiducia, creare un senso di urgenza e trovare i vostri punti deboli. “Diffidate di qualsiasi situazione che susciti in voi emozioni forti, perché i migliori truffatori non sono necessariamente gli hacker più abili tecnicamente“, commenta Jabbara. Per evitare di essere fregati, a volte può bastare prendersi un momento per riflettere sulla situazione e non agire d’impulso

https://www.wired.it/article/intelligenza-artificiale-truffe-telefoniche-come-difendersi/

Twitter
Visit Us
LinkedIn
Share
YOUTUBE