Il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti ha pubblicato il suo Artificial Intelligence Risk Management Framework (AI RMF 1.0), un documento guida per l’uso volontario da parte delle organizzazioni che progettano, sviluppano, implementano o utilizzano sistemi di intelligenza artificiale per aiutare a mitigare i rischi delle tecnologie AI.

L’AI RMF segue una direzione del Congresso per il NIST per sviluppare il quadro ed è stato prodotto in stretta collaborazione con i settori pubblico e privato. Ha lo scopo di adattarsi al panorama dell’IA man mano che le tecnologie continuano a svilupparsi e di essere utilizzato dalle organizzazioni in modo che la società possa beneficiare delle tecnologie di intelligenza artificiale pur essendo protetta dai suoi potenziali danni.

“Questo framework aiuterà a sviluppare e implementare le tecnologie di intelligenza artificiale in modi che consentano agli Stati Uniti, ad altre nazioni e organizzazioni di migliorare l’affidabilità dell’IA gestendo i rischi in base ai nostri valori democratici”, ha dichiarato il vice segretario al commercio Don Graves. “Dovrebbe accelerare l’innovazione e la crescita dell’IA promuovendo, invece di limitare o danneggiare, i diritti civili, le libertà civili e l’equità per tutti”.

Rispetto al software tradizionale, l’intelligenza artificiale pone una serie di rischi diversi. I sistemi di intelligenza artificiale sono addestrati su dati che possono cambiare nel tempo, a volte in modo significativo e inaspettato, influenzando i sistemi in modi che possono essere difficili da comprendere. Questi sistemi sono anche di natura “socio-tecnica”, nel senso che sono influenzati dalle dinamiche sociali e dal comportamento umano. I rischi dell’IA possono emergere dalla complessa interazione di questi fattori tecnici e sociali, influenzando la vita delle persone in situazioni che vanno dalle loro esperienze con le chatbot online ai risultati delle domande di lavoro e di prestito.

Il framework fornisce alle organizzazioni gli strumenti per pensare all’IA e i rischi in modo diverso, promuovendo un cambiamento nella cultura istituzionale, incoraggiando le organizzazioni ad avvicinarsi all’IA con una nuova prospettiva, incluso come pensare, comunicare, misurare e monitorare i rischi dell’IA e i suoi potenziali impatti positivi e negativi.

L’AI RMF fornisce un processo flessibile, strutturato e misurabile che permetterà alle organizzazioni di affrontare i rischi legati all’IA. Seguendo questo processo per la gestione dei rischi dell’IA è possibile massimizzare i vantaggi delle tecnologie di intelligenza artificiale riducendo al contempo la probabilità di impatti negativi su individui, gruppi, comunità, organizzazioni e società.

L’AI RMF è diviso in due parti. La prima parte discute come le organizzazioni possono inquadrare i rischi legati all’IA e delinea le caratteristiche di sistemi di IA affidabili. La seconda parte, il nucleo del framework, descrive quattro funzioni specifiche (governare, mappare, misurare e gestire) per aiutare le organizzazioni ad affrontare i rischi dei sistemi di intelligenza artificiale nella pratica. Queste funzioni possono essere applicate in casi d’uso specifici del contesto e in qualsiasi fase del ciclo di vita dell’IA.

Il framework fa parte del più ampio sforzo del NIST per coltivare la fiducia nelle tecnologie AI, necessario se la tecnologia deve essere ampiamente accettata dalla società, secondo il sottosegretario per gli standard e la tecnologia e direttore del NIST Laurie E. Locascio.

“L’AI Risk Management Framework può aiutare le aziende e altre organizzazioni di qualsiasi settore e di qualsiasi dimensione a far ripartire o migliorare i loro approcci di gestione del rischio AI”, ha affermato Locascio. “Offre un nuovo modo per integrare pratiche responsabili e indicazioni attuabili per rendere operativa un’IA affidabile e responsabile. Ci aspettiamo che l’AI RMF aiuti a guidare lo sviluppo di best practice e standard”.

Lavorando a stretto contatto con i settori pubblico e privato, il NIST ha sviluppato l’AI RMF per 18 mesi. Il documento riflette circa 400 serie di commenti formali ricevuti dal NIST da più di 240 diverse organizzazioni sulle versioni bozze del framework. Il NIST ha rilasciato il 26 gennaio 2023 le dichiarazioni di alcune delle organizzazioni che si sono già impegnate a utilizzare o promuovere il framework.

L’agenzia ha anche rilasciato oggi un Playbook AI RMF complementare, che suggerisce modi per navigare e utilizzare il framework.

Il NIST prevede di lavorare con la comunità AI per aggiornare periodicamente il framework e accoglie suggerimenti per aggiunte e miglioramenti al playbook in qualsiasi momento. I commenti ricevuti entro la fine di febbraio 2023 saranno inclusi in una versione aggiornata del playbook che verrà rilasciata nella primavera del 2023.

Inoltre, il NIST prevede di lanciare un Trustworthy and Responsible AI Resource Center per aiutare le organizzazioni a mettere in pratica l’AI RMF 1.0. L’agenzia incoraggia le organizzazioni a sviluppare e condividere profili di come lo userebbero nei loro contesti specifici. Le candidature possono essere inviate a AIFramework@nist.gov .

Il NIST si impegna a continuare il suo lavoro con aziende, società civile, agenzie governative, università e altri per sviluppare ulteriori linee guida.

Il framework fa parte dell’ampio e crescente portafoglio di lavori relativi all’IA del NIST che include la ricerca fondamentale e applicata insieme a un focus su misurazione e valutazione, standard tecnici e contributi alla politica dell’IA, conclude il comunicato del NIST.

https://www.nist.gov/news-events/news/2023/01/nist-risk-management-framework-aims-improve-trustworthiness-artificial

Twitter
Visit Us
LinkedIn
Share
YOUTUBE