Il Consiglio dell’Unione Europea ha approvato in via definitiva la legge sull’intelligenza artificiale (IA). La legislazione segue un approccio basato sul rischio, il che significa che maggiore è il rischio di causare danni alla società, più severe saranno le regole. Questa normativa, la prima al mondo, potrebbe stabilire uno standard globale per la regolamentazione dell’IA.

La legge mira a promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’UE, sia da parte di attori privati che pubblici. Allo stesso tempo, intende garantire il rispetto dei diritti fondamentali dei cittadini dell’UE e stimolare investimenti e innovazione nel campo dell’intelligenza artificiale in Europa. La legge si applica solo ad ambiti soggetti al diritto dell’UE e prevede esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari, di difesa e di ricerca.

Le nuove regole saranno applicabili a partire da due anni dopo l’entrata in vigore della legge, con alcune eccezioni dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di intelligenza artificiale per finalità generali, compresa la governance, dopo 12 mesi, e gli obblighi per i sistemi ad alto rischio dopo 36 mesi.

La legge classifica l’IA in base al rischio. I sistemi a basso rischio avranno obblighi di trasparenza leggeri, mentre quelli ad alto rischio dovranno soddisfare requisiti stringenti per accedere al mercato dell’UE. Sistemi di IA come la manipolazione cognitivo-comportamentale e il punteggio sociale saranno vietati perché ritenuti inaccettabili. Inoltre, è vietato l’uso dell’IA per la polizia predittiva basata sulla profilazione e per classificare persone in base a dati biometrici come razza, religione o orientamento sessuale.

La normativa copre anche i modelli di IA per scopi generali (GPAI). Quelli senza rischi sistemici avranno requisiti limitati, soprattutto sulla trasparenza, mentre quelli con rischi sistemici dovranno rispettare regole più rigide.

Per garantire una corretta applicazione delle regole, la legge prevede l’istituzione di diversi organi di governo. Tra questi, un ufficio AI all’interno della Commissione Europea per far rispettare le regole comuni in tutta l’UE, un panel scientifico di esperti indipendenti a supporto delle attività di contrasto, un comitato per l’AI con rappresentanti degli Stati membri per consigliare e assistere la Commissione e gli Stati membri nell’applicazione coerente ed efficace della legge, e un forum consultivo per le parti interessate per fornire competenze tecniche.

Le sanzioni per le violazioni della legge saranno fissate in percentuale del fatturato annuo globale dell’azienda colpevole nell’anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato. Le PMI e le start-up saranno soggette a sanzioni amministrative proporzionali.

Prima dell’implementazione di un sistema di IA ad alto rischio da parte di enti pubblici, sarà necessaria una valutazione dell’impatto sui diritti fondamentali. La legge prevede maggiore trasparenza nello sviluppo e uso di sistemi di IA ad alto rischio, con l’obbligo di registrazione nella banca dati dell’UE. Gli utenti di sistemi di riconoscimento delle emozioni dovranno informare le persone quando esposte a tali sistemi.

Infine, la legge prevede la creazione di sandbox normativi per testare sistemi di IA innovativi in un ambiente controllato, favorendo un quadro giuridico favorevole all’innovazione e all’apprendimento normativo basato su dati concreti. Dopo la firma dai presidenti del Parlamento europeo e del Consiglio, la legge sarà pubblicata sulla Gazzetta Ufficiale dell’UE ed entrerà in vigore venti giorni dopo. Il regolamento sarà applicabile due anni dopo l’entrata in vigore, con eccezioni per alcune disposizioni specifiche.

https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/

 

 

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE