Il Parlamento europeo ha adottato ieri la sua posizione negoziale sulla legge sull’intelligenza artificiale (AI ACT). Con 499 voti a favore, 28 contrari e 93 astensioni in vista dei colloqui con gli Stati membri dell’UE l’AI ACT entra nella fase finale. Le norme mirano a promuovere l’adozione di un’IA incentrata sull’uomo e affidabile e a proteggere la salute, la sicurezza, i diritti fondamentali e la democrazia dai suoi effetti dannosi e garantirebbero che l’IA sviluppata e utilizzata in Europa sia pienamente in linea con i diritti e i valori dell’UE, tra cui il controllo umano, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.

Previsti: il divieto totale dell’Intelligenza Artificiale (AI) per la sorveglianza biometrica, il riconoscimento delle emozioni, la polizia predittiva; i sistemi di intelligenza artificiale generativa come ChatGPT devono rivelare che il contenuto è stato generato dall’intelligenza artificiale; i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori nelle elezioni considerate ad alto rischio.

Pratiche di intelligenza artificiale vietate

Le regole seguono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e coloro che implementano sistemi di IA a seconda del livello di rischio che l’IA può generare. Sarebbero quindi vietati i sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale o alle caratteristiche personali). I deputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’intelligenza artificiale, come ad esempio:

  • Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • Sistemi di identificazione biometrica remota “postale”, con la sola eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
  • sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (es. genere, razza, etnia, stato di cittadinanza, religione, orientamento politico);
  • sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato);
  • sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative;
  • scraping non mirato di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

IA ad alto rischio

I deputati hanno assicurato che la classificazione delle applicazioni ad alto rischio includerà ora i sistemi di intelligenza artificiale che arrecano danni significativi alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. I sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti) sono stati aggiunti all’elenco ad alto rischio.

Obblighi per IA di uso generale

I fornitori di modelli di base – uno sviluppo nuovo e in rapida evoluzione nel campo dell’IA – dovrebbero valutare e mitigare i possibili rischi (per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto) e registrare i propri modelli nel Banca dati dell’UE prima della loro immissione sul mercato dell’UE. I sistemi di intelligenza artificiale generativa basati su tali modelli, come ChatGPT, dovrebbero rispettare i requisiti di trasparenza (rivelare che il contenuto è stato generato dall’intelligenza artificiale, aiutando anche a distinguere le cosiddette immagini deep-fake da quelle reali) e garantire salvaguardie contro la generazione di contenuti illegali. Dovrebbero essere rese pubbliche anche sintesi dettagliate dei dati protetti da copyright utilizzati per la loro formazione.

Sostenere l’innovazione e tutelare i diritti dei cittadini

Per promuovere l’innovazione dell’IA e sostenere le PMI, i deputati hanno aggiunto esenzioni per le attività di ricerca e i componenti dell’IA forniti con licenze open source. La nuova legge promuove i cosiddetti sandbox normativi, o ambienti di vita reale, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima che venga implementata.

Infine, i deputati vogliono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e ricevere spiegazioni delle decisioni basate su sistemi di IA ad alto rischio che incidono in modo significativo sui loro diritti fondamentali. I deputati hanno anche riformato il ruolo dell’Ufficio AI dell’UE, che avrebbe il compito di monitorare l’attuazione del regolamento sull’IA.

Dopo il voto, il correlatore Brando Benifei (S&D, Italia) ha dichiarato: “Oggi tutti gli occhi sono puntati su di noi. Mentre le aziende Big Tech lanciano l’allarme per le proprie creazioni, l’Europa è andata avanti e ha proposto una risposta concreta ai rischi che l’IA sta iniziando a porre. Vogliamo che il potenziale positivo dell’IA per la creatività e la produttività sia sfruttato, ma lotteremo anche per proteggere la nostra posizione e contrastare i pericoli per le nostre democrazie e libertà durante i negoziati con il Consiglio”.

Il correlatore Dragos Tudorache (Renew, Romania) ha dichiarato: “La legge sull’IA darà il tono a livello mondiale allo sviluppo e alla governance dell’intelligenza artificiale, garantendo che questa tecnologia, destinata a trasformare radicalmente le nostre società grazie agli enormi vantaggi che può offrire, si evolva ed è utilizzato in conformità con i valori europei della democrazia, dei diritti fondamentali e dello Stato di diritto”.

 

https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai

Twitter
Visit Us
LinkedIn
Share
YOUTUBE