Il National Institute of Standards and Technology (NIST) degli Stati Uniti sta cercando partecipanti per un nuovo consorzio che sosterrà lo sviluppo di metodi innovativi per migliorare la sicurezza e l’affidabilità dei sistemi di intelligenza artificiale (IA). Questo consorzio, noto come Artificial Intelligence Safety Institute Consortium, mira a promuovere una nuova scienza di misurazione per l’IA, consentendo l’identificazione di tecniche e metriche comprovate, scalabili e interoperabili per l’IA sicura e affidabile, in particolare per i sistemi di IA avanzati.

Questo sforzo del NIST risponde all’Ordine Esecutivo che promuove lo sviluppo e l’uso sicuro e affidabile dell’IA. Il NIST assume diverse responsabilità, tra cui lo sviluppo di una risorsa complementare all’AI Risk Management Framework (AI RMF) per l’IA generativa, l’orientamento sull’autenticazione di contenuti umani e il watermarking dei contenuti generati dall’IA, nonché la creazione di linee guida per valutare le capacità dell’IA e la creazione di ambienti di test per i sistemi di IA.

Il U.S. AI Safety Institute lavorerà per migliorare la valutazione dei sistemi di IA, rendendoli più sicuri ed affidabili. Il consorzio rappresenterà un luogo di collaborazione per sostenere la ricerca e lo sviluppo attraverso progetti condivisi e promuoverà la valutazione e la verifica dei sistemi di prova e dei prototipi per orientare gli sforzi futuri di misurazione dell’IA.

Questo avviso rappresenta il primo passo del NIST nella collaborazione con organizzazioni no-profit, università, altri enti governativi e aziende tecnologiche per affrontare le sfide associate allo sviluppo e all’implementazione dell’IA.

La partecipazione al consorzio è aperta a tutte le organizzazioni interessate che possono contribuire con le proprie competenze, prodotti, dati e/o modelli allo sviluppo di sistemi di IA sicuri e affidabili, utilizzando l’AI Risk Management Framework (AI RMF).

In particolare, il NIST sta sollecitando risposte da tutte le organizzazioni con competenze e capacità rilevanti per stipulare un accordo di ricerca e sviluppo cooperativo (CRADA) nel consorzio al fine di supportare e dimostrare percorsi per rendere sicura e affidabile l’IA. Ai partecipanti selezionati verrà richiesto di stipulare un accordo consorziale di ricerca e sviluppo cooperativo (CRADA) con il NIST. Ci si aspetta che i membri contribuiscano con:

  • Competenze in una o più aree specifiche, tra cui la metrologia dell’IA, l’IA responsabile, la progettazione e lo sviluppo dei sistemi di IA, la collaborazione e l’interazione uomo-IA, metodologie sociotecniche, analisi economica;
  • Modelli, dati e/o prodotti per supportare e dimostrare percorsi per rendere sicuri e affidabili i sistemi di IA attraverso il AI RMF;
  • Supporto infrastrutturale per i progetti del consorzio;
  • Spazio e gestione delle strutture per ospitare ricercatori, workshop e conferenze del consorzio.

Le organizzazioni interessate con competenze tecniche pertinenti devono presentare una lettera di interesse entro il 2 dicembre 2023. Il NIST ha pianificato l’organizzazione di un workshop il 17 novembre 2023, al quale sono invitati coloro che desiderano approfondire la loro comprensione del consorzio.

Il U.S. AI Safety Institute collaborerà attivamente con altre agenzie governative degli Stati Uniti per valutare le capacità, i limiti, i rischi e gli impatti dell’IA, e coordinerà sforzi nella creazione di ambienti di prova. Inoltre, l’istituto collaborerà con organizzazioni di paesi alleati e partner per condividere le migliori pratiche, allineare valutazioni di capacità e sviluppare linee guida e parametri di riferimento per le valutazioni della sicurezza dell’IA.

 

https://www.nist.gov/news-events/news/2023/11/nist-seeks-collaborators-consortium-supporting-artificial-intelligence

Twitter
Visit Us
LinkedIn
Share
YOUTUBE