L’evoluzione della tecnologia AI sta permettendo agli aggressori di sviluppare nuovi modelli e tecniche di cyberattacco. Le truffe diventano sempre più sofisticate e difficili da contrastare, contribuendo all’incremento del crimine informatico a causa dell’uso malevolo dell’intelligenza artificiale.

Secondo il report di Cybersecurity Ventures, entro il 2025 il costo globale dei cyberattacchi supererà i dieci trilioni di dollari. Annualmente, i criminali informatici causano perdite di 318 miliardi di dollari alle persone, mentre per le piccole e medie imprese (PMI) una violazione dei dati può avere un impatto economico che varia tra i 120 mila e 1,24 milioni di dollari.

Come descritto nel MIT Technology Review, periodico bimestrale del Massachusetts Institute of Technology, gli attacchi informatici che sfruttano l’intelligenza artificiale possono essere attualmente classificati in diverse categorie principali. Ecco quattro tipi di cyberattacchi che sfruttano l’AI per causare incidenti di auto e rubare dati:

  • Phishing

Il phishing ha registrato un incremento mondiale di quasi il 60%, alimentato dai metodi generativi dell’AI, come il phishing vocale (vishing) e il deepfake phishing. Ad esempio, un test condotto dalla Government Technology Agency di Singapore ha inviato 200 email di phishing, alcune create manualmente dai membri dell’agenzia e altre generate da una piattaforma AI as a Service (AIaaS). I risultati hanno mostrato che le email di phishing generate dall’AIaaS hanno avuto un tasso di clic superiore rispetto a quelle scritte manualmente.

  • Deepfake

I deepfake, in gran parte creati dall’AI generativa, sono sempre più diffusi e temuti. Un esempio significativo è quello delle elezioni in Slovacchia del 2023, dove una registrazione audio falsa, creata con tecniche di deep learning “voice cloning”, ha replicato le voci di politici influenti. Un altro caso recente riguarda un dipendente di Arup che ha trasferito 26 milioni di dollari a cybercriminali dopo una videocall generata con l’AI.

  • Documenti falsi creati con l’AI

Servizi come OnlyFake utilizzano l’AI per creare identità false, incluse patenti di guida, passaporti e carte d’identità. Questi documenti falsi sono stati utilizzati per bypassare i controlli KYC (Know Your Customer) su vari scambi di criptovaluta. I giornalisti di 404 Media hanno scoperto che questi servizi accettano pagamenti in criptovalute tramite Coinbase, facilitando ulteriormente l’uso malevolo.

  • Jailbreak a ripetizione

Gli attacchi di “jailbreak a ripetizione” manipolano i modelli di linguaggio AI (LLM) per violare le loro policy di sicurezza e generare output altrimenti censurati. Questo tipo di attacco induce un modello di linguaggio basato sull’AI a superare le sue misure di sicurezza interne, producendo contenuti che sarebbero stati normalmente bloccati o limitati. I cybercriminali orchestrano dialoghi apparentemente innocui che, progressivamente, portano il modello AI a eludere le sue misure di sicurezza.

La possibilità di predire se l’AI si rivelerà “nociva” è un tema di crescente interesse. Un team di ricerca della Washington University ha pubblicato uno studio su Pnas Nexus intitolato “Controlling bad-actor-artificial intelligence activity at scale across online battlefields”. Secondo i ricercatori, i threat actors utilizzeranno sempre di più l’AI per veicolare contenuti tossici nelle comunità online, sfruttando strumenti di AI di prima generazione in quanto possiedono meno filtri di sicurezza, sono facilmente accessibili e sono disponibili gratuitamente. Tali programmi si adattano perfettamente ai computer portatili, rendendoli ideali per l’uso da parte di malintenzionati.

https://www.cybersecitalia.it/uso-malevolo-dellintelligenza-artificiale-4-tipi-di-cyberattacchi-in-grado-di-manipolarla/33929/

Twitter
Visit Us
LinkedIn
Share
YOUTUBE