L’intelligenza artificiale di ChatGpt sviluppata da OpenAI, quelle di Bard di Google, Microsoft, Nvidia e di altre start up come Anthropic e Stability AI, stanno per essere date in pasto a 4.000 hacker per un crash test al fine di scoprire le loro vulnerabilità e di scavalcare le barriere di sicurezza dei software permettendo ai giganti dell’AI di individuare i punti deboli dei loro modelli large language e correre ai ripari.

L’idea di trasformare Def-Con 2023, la grande fiera annuale della sicurezza informatica che si svolge in agosto a Las Vegas, nel più vasto test di cybersecurity mai tentato al mondo è partita da tre attivisti del web democratico, con un progetto pilota: un seminario nel quale un gruppo di studenti di community college è stato invitato a tentare di hackerare alcuni modelli di intelligenza artificiale. I risultati positivi dell’esperimento hanno spinto a ripeterlo a marzo in Texas, al tech festival South by Southwest di Austin.

Ad Austin erano presenti anche gli esperti della direzione Scienza e Tecnologia della Casa Bianca, preoccupati dall’emergere di vulnerabilità dei sistemi come il cosiddetto «exploit della nonna»: le istruzioni per costruire una bomba ottenute non chiedendole direttamente all’AI, operazione bloccata dai filtri, ma indirettamente, mascherandole da favola raccontata dalla nonna ai nipotini.

I tecnici del governo si sono subito dimostrati molto interessati a un ricorso a tappeto ai read team: squadre di hacker «certificati» che lavorano in simbiosi con le industrie. Così quello che solo poche settimane prima era parso agli attivisti della rete un sogno irrealizzabile, ossia coinvolgere la Casa Bianca in un progetto gestito da hacker, è diventato improvvisamente una possibilità concreta.

Il problema principale non era quello del rapporto con lo Stato: già a DefCon 2022, infatti, i militari del Pentagono avevano affidato agli hacker una verifica della tenuta dei sistemi di difesa di alcune reti elettriche da possibili attacchi cibernetici. È risultato invece più difficile convincere i giganti del web a mettere in piazza i loro segreti industriali, sia pure per un fine nobile.

La tendenza in atto da mesi, infatti, è quella opposta: OpenAI, nata da un progetto filantropico con l’obiettivo di creare un sistema senza segreti, open source, dopo l’offerta al pubblico di ChatGPT ha cambiato rotta, essendosi resa conto di aver realizzato un software potente, pericoloso, facilmente manipolabile nonché anche di grande valore economico. Determinante quindi è stato il vertice riunito la settimana scorsa alla Casa Bianca dalla vicepresidente Kamala Harris.

I capi delle società più avanzate nel campo dell’AI, a partire da Sam Altman di OpenAI, per una volta non si sono opposti all’introduzione di vincoli, ma, anzi, si sono mostrati assai preoccupati soprattutto per i rischi di un uso malevolo di ChatGPT e dei suoi fratelli nelle elezioni presidenziali Usa del 2024. Così anche Microsoft, Google e gli altri big hanno accettato di aprire i loro sistemi, mostrando di aver capito che come l’addestramento delle loro intelligenze artificiali richiede l’immissione di volumi enormi di dati, anche la ricerca dei modi nei quali i loro bot possono essere manipolati, possono violare la privacy degli utenti rivelando i loro dati personali o possono assorbire, perpetuare e addirittura amplificare i pregiudizi culturali, richiede l’impegno di un numero molto elevato di “sfidanti” (gli hacker) che si incontreranno dunque, ai primi di agosto a Las Vegas.

 

https://www.corriere.it/esteri/23_maggio_12/intelligenza-artificiale-santa-alleanza-casa-bianca-big-tech-4000-hacker-limitare-danni-87fcf076-f0ac-11ed-a7ab-be01d764a27b.shtml?refresh_ce

Twitter
Visit Us
LinkedIn
Share
YOUTUBE