Un’insidiosa truffa ha colpito un dipendente di una multinazionale, portando al trasferimento di una somma di 200 milioni di dollari di Hong Kong (equivalenti a 25,6 milioni di dollari) su conti correnti controllati da truffatori. La tecnica utilizzata? Deepfake, un’IA in grado di creare falsi video e voci che impersonano dirigenti aziendali.

L’FBI ha lanciato un avvertimento riguardo all’aumento dell’uso dell’IA generativa a fini di estorsione. In questo caso specifico, un dipendente finanziario di una multinazionale a Hong Kong è stato indotto a trasferire ingenti somme di denaro su 15 conti correnti diversi dopo essere stato invitato a partecipare a una falsa riunione di lavoro. I truffatori, dall’altra parte dello schermo, si sono presentati come dirigenti del centro finanziario, utilizzando deepfake non solo per le voci ma anche per i volti, sintetizzati da video online su Youtube.

Dopo essere stato invitato alla videoconferenza, il dipendente ha ricevuto un’e-mail dal presunto direttore finanziario della sede del Regno Unito, che lo ha sollecitato a effettuare una transazione segreta. Inizialmente sospettoso, il dipendente ha abboccato all’inganno ricredendosi proprio quando ha partecipato alla call online, credendo di riconoscere i vertici dell’azienda.

Pensando di agire nell’interesse della società, il dipendente ha effettuato 15 trasferimenti su vari conti bancari di Hong Kong per un totale di 25,6 milioni di dollari. Solo alcuni giorni dopo, comprendendo l’inganno orchestrato, ha segnalato il caso alle autorità aziendali, che hanno immediatamente contattato le forze dell’ordine.

Così pensando, il dipendente ha accolto la loro richiesta, effettuando 15 trasferimenti su vari conti bancari di Hong Kong per un valore totale di 25,6 milioni di dollari. Soltanto alcuni giorni dopo, compreso l’inganno perfettamente orchestrato, l’uomo ha segnalato il caso alle autorità aziendali, che hanno immediatamente contattato le forze dell’ordine.

La storia è emblematica dell’uso pericoloso dei deepfake, che può portare a perdite finanziarie significative e altri danni. L’FBI ha sottolineato che non solo le aziende, ma anche individui, compresi minori, possono essere vittime di truffe di estorsione online che utilizzano materiale alterato, come immagini deepfake sessualmente esplicite.

In un caso correlato, immagini sessualmente esplicite della pop star Taylor Swift sono diventate virali su X, dimostrando la diffusione preoccupante del deepfake pornografico sui social media. L’IA ha reso possibile la creazione e la diffusione di contenuti dannosi, richiedendo un intervento attivo per rimuovere il materiale e affrontare le violazioni.

Questi episodi evidenziano la crescente minaccia rappresentata dai deepfake, sia in contesti finanziari che sociali, richiedendo una maggiore vigilanza e azioni coordinate per contrastare questo fenomeno in rapida espansione.

 

https://www.cybersecitalia.it/partecipa-a-una-videocall-di-lavoro-ma-i-colleghi-sono-deepfake-creati-con-lia-rubati-allazienda-26-milioni-di-dollari/28796/

Twitter
Visit Us
LinkedIn
Share
YOUTUBE