ChatGPT è l’acronimo di Chat Generative Pre-trained Transformer, la nuova tecnologia di OpenAI che sfrutta l’intelligenza artificiale. Il suo segreto è legato a un sofisticato modello di machine learning. ChatGPT in qualità di chatbot si esprime normalmente con il testo ed è in grado di fornire un livello di conversazione al pari di un umano, può rispondere a domande su vari argomenti, inclusi i linguaggi di programmazione. Proprio quest’ultima capacità potrebbe essere utilizzata per generare ottimi e convincenti testi per email di phishing, falsi articoli di news e codice dei malware.

Check Point Software ha verificato che tale possibilità è reale. In un suo blog i ricercatori hanno descritto come ChatGPT ha condotto con successo un flusso completo di infezione, dalla creazione di un’e-mail di spear-phishing.

L’analisi di CPR su diverse importanti comunità di hacker clandestini mostra che esistono già i primi casi di criminali informatici che utilizzano OpenAI per sviluppare strumenti dannosi. I sospetti si sono subito concretizzati, infatti, alcuni dei casi hanno mostrato chiaramente che molti criminali informatici che utilizzano OpenAI non hanno alcuna capacità di sviluppo. Molto probabilmente è solo una questione di tempo prima che attori delle minacce più sofisticati imparino ad utilizzare al meglio gli strumenti basati sull’intelligenza artificiale per fare del male.

I casi verificati dagli esperti di Check Point Research:

Caso 1 – Creazione di Infostealer

Un criminale informatico ha rivelato che stava sperimentando ChatGPT per ricreare ceppi di malware e tecniche descritte in alcune pubblicazioni di ricerca e articoli su malware comuni. Ad esempio, ha condiviso il codice di uno stealer basato su Python che cerca tipi di file comuni, li copia in una cartella casuale all’interno della cartella Temp, li zippa e li carica su un server FTP hardcoded.

L’analisi da parte degli esperti di Check Point Research ha confermato le affermazioni del criminale informatico. Lo stealer cerca 12 tipi di file comuni (come documenti MS Office, PDF e immagini) in tutto il sistema. Se vengono trovati file di interesse, il malware copia i file in una directory temporanea, li comprime e li invia sul Web. L’attore malevolo ha creato anche un semplice frammento Java utilizzando ChatGPT.

Caso 2 – Creazione di uno strumento di crittografia

Nel mese di dicembre un attore di minacce, soprannominato USDoD, ha pubblicato uno script in Python sottolineando che era il primo script che avesse mai creato. Quando un altro criminale informatico ha commentato che lo stile del codice era simile al codice openAI, USDoD ha confermato che OpenAI gli aveva dato una bella mano per fare lo script. L’analisi dello script ha verificato che si tratta di uno script Python che esegue operazioni crittografiche.

Questo codice può ovviamente essere utilizzato in modo benigno. Tuttavia, questo script può essere facilmente modificato per crittografare completamente la macchina di qualcuno senza alcuna interazione da parte dell’utente. Ad esempio, può potenzialmente trasformare il codice in ransomware.

 Caso 3 – Utilizzo di ChatGPT per attività fraudolente

 Un altro esempio dell’uso di ChatGPT per attività fraudolente è stato pubblicato alla vigilia di Capodanno del 2022 e ha dimostrato un diverso tipo di attività criminale informatica. Mentre i primi due esempi si sono concentrati maggiormente sull’uso di ChatGPT per la creazione di malware, in questo caso si tratta di un abuso di ChatGPT per creare script di Dark Web Marketplace. In questo thread, il criminale informatico mostra quanto sia facile creare un mercato del Dark Web, utilizzando ChatGPT. Il marketplace potrebbe essere usato per la compravendita di armi, droga, malware, prodotti rubati e dati delle carte di credito.

Secondo i ricercatori Check Point è ancora troppo presto per decidere se le funzionalità di ChatGPT diventeranno o meno il nuovo strumento preferito dai partecipanti al Dark Web. Tuttavia, la comunità dei criminali informatici ha già mostrato un notevole interesse e si sta lanciando in quest’ultima tendenza per generare codice dannoso. CPR promette che continuerà a monitorare questa attività per tutto il 2023.

Infine, gli esperti di Check Point Software hanno pensato di chiedere direttamente a ChatGPT come è possibile utilizzare la tecnologia per scopi illeciti. L’intelligenza artificiale ha risposto che ci sono diversi modi, tra cui email di phishing, post sui social media o video fake per manipolare l’opinione pubblica. Tuttavia, OpenAI ha precisato che non è responsabile, in quanto i termini del servizio proibiscono l’uso della sua tecnologia per attività pericolose o illegali.

 

https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/

https://www.punto-informatico.it/malware-ia-online-codice-generato-chatgpt/

 

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE