L’Ai Act, la normativa che intende regolamentare l’intelligenza artificiale in Europa, fa un passo in avanti: ieri le principali commissioni parlamentari del Parlamento europeo hanno dato il via libera alla legge n aprendo la strada all’adozione in plenaria a metà giugno.

La commissione per il mercato interno e la commissione per le libertà civili ha infatti adottato un progetto di mandato negoziale sulle prime norme in assoluto per l’intelligenza artificiale con 84 voti a favore, 7 contrari e 12 astensioni. Nei loro emendamenti alla proposta della Commissione, i deputati mirano a garantire che i sistemi di IA siano controllati dalle persone, siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Vogliono anche avere una definizione uniforme per l’IA progettata per essere neutrale dal punto di vista tecnologico, in modo che possa essere applicata ai sistemi di intelligenza artificiale di oggi e di domani.

Una volta approvate, saranno le prime regole al mondo sull’Intelligenza Artificiale. I deputati includono divieti di sorveglianza biometrica, riconoscimento delle emozioni, sistemi di intelligenza artificiale di polizia predittiva, regimi su misura per general purpose IA e modelli di base come GPT, il diritto di presentare reclami sui sistemi di intelligenza artificiale.

Cosa prevedono le nuove regole di trasparenza e gestione del rischio per i sistemi di IA.

Approccio basato sul rischio all’IA – Pratiche di intelligenza artificiale vietate

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l’IA può generare. I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone sarebbero severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale, stato socioeconomico, caratteristiche).

I deputati hanno sostanzialmente modificato l’elenco per includere i divieti sugli usi intrusivi e discriminatori dei sistemi di IA come:

  • Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • Sistemi di identificazione biometrica remota “postale”, con la sola eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
  • Sistemi di categorizzazione biometrici che utilizzano caratteristiche sensibili (ad es. genere, razza, etnia, stato di cittadinanza, religione, orientamento politico);
  • Sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato);
  • Sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative; E
  • Raschiamento indiscriminato di dati biometrici da social media o filmati CCTV per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

IA ad alto rischio

I deputati hanno ampliato la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. Hanno anche aggiunto i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act ) all’elenco ad alto rischio.

General-purpose AI – misure di trasparenza

I deputati hanno incluso obblighi per i fornitori di modelli di fondazione – uno sviluppo nuovo e in rapida evoluzione nel campo dell’IA – che dovrebbero garantire una solida protezione dei diritti fondamentali, della salute e della sicurezza e dell’ambiente, della democrazia e dello stato di diritto. Dovrebbero valutare e mitigare i rischi, rispettare i requisiti di progettazione, informazione e ambiente e registrarsi nella banca dati dell’UE.

I modelli di base generativi, come GPT, dovrebbero rispettare ulteriori requisiti di trasparenza, come rivelare che il contenuto è stato generato dall’intelligenza artificiale, progettare il modello per impedire che generi contenuto illegale e pubblicare riepiloghi dei dati protetti da copyright utilizzati per la formazione. 

Sostenere l’innovazione e tutelare i diritti dei cittadini

Per promuovere l’innovazione dell’IA, i deputati hanno aggiunto esenzioni a queste regole per le attività di ricerca e i componenti dell’IA forniti con licenze open source. La nuova legge promuove i sandbox normativi, o ambienti controllati, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima della sua implementazione.

I deputati vogliono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e ricevere spiegazioni delle decisioni basate su sistemi di IA ad alto rischio che incidono in modo significativo sui loro diritti. I deputati hanno anche riformato il ruolo dell’Ufficio AI dell’UE, che avrebbe il compito di monitorare l’attuazione del regolamento sull’IA.

A parlare di questa normativa di cui si discute da due anni è Giuseppe Vaciago, partner di 42 Law Firml.

– Cosa cambia?

Vaciago ha spiegato che è possibile fare un primissimo bilancio sulla normativa. Entrando nel merito, «la grande novità – spiega l’avvocato – è stata sicuramente l’inclusione di una serie divieti sugli usi intrusivi e discriminatori dei sistemi di IA connessi alla biometria, mentre per i modelli di AI generativi, come chatGPT o Bard, sono stati richiesti ulteriori requisiti di trasparenza, tra cui l’obbligo di dichiarare che il contenuto è stato generato dall’intelligenza artificiale e la necessaria creazione di un modello per impedire che generi contenuto illegale. Da ultimo verrà richiesto ai sistemi di pubblicare riepiloghi di dati protetti da copyright utilizzati per la formazione».

– Più trasparenza per ChatGpt è un freno all’innovazione? 

«In definitiva – commenta – non sembra che si sia deciso di porre un freno allo sviluppo di AI generativa, ma di regolamentarla in ottica di maggiore trasparenza. Una decisione che sembra in linea con il recente provvedimento dell’Autorità Garante per la Protezione dei Dati Personali. Il vero tema, dal mio punto di vista, è la regolamentazione della base di dati con cui si sono “istruite” e si stanno “istruendo” le intelligenze artificiali generative: sono compliant dal punto di vista privacy? Sono dati che possono essere inesatti? Questi sono i veri temi che dovranno essere affrontati una volta entrata in vigore la normativa».

Le prossime tappe per l’approvazione definitiva

Giovedì scorso, le commissioni parlamentari per le Libertà civili e il Mercato interno hanno adottato congiuntamente il testo a larga maggioranza. Il passo successivo sarà l’adozione in plenaria fissata provvisoriamente il 14 giugno. Una volta che gli eurodeputati avranno formalizzato la loro posizione, la proposta entrerà nell’ultima fase del processo legislativo, dando il via ai negoziati con il Consiglio e la Commissione dell’UE, i cosiddetti triloghi.

Prima che possano iniziare i negoziati con il Consiglio sulla forma finale della legge, questo progetto di mandato negoziale deve essere approvato dall’intero Parlamento, con il voto previsto durante la sessione del 12-15 giugno.

 

https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

https://www.ilsole24ore.com/art/passo-avanti-dell-ai-act-cosa-cambiera-chatgpt-e-tutta-l-intelligenza-artificiale-generativa-AEPqHOSD?refresh_ce=1

Twitter
Visit Us
LinkedIn
Share
YOUTUBE