PER REGOLARE IL PREPOTENTE SVILUPPO DELL’IA, BISOGNA METTERE A CONFRONTO CULTURE GIURIDICHE E SISTEMI-PAESE

Intervista VIP a Giusella Finocchiaro

Regolare lo sviluppo del digitale rappresenta un compito estremamente arduo per il legislatore, chiamato a sintonizzarsi con le dinamiche evolutive di un mondo che cambia a una velocità mai sperimentata prima. Giusella Finocchiaro, professore ordinario di Diritto privato e di Diritto di Internet dell’Università di Bologna, da sempre impegnata a livello nazionale e internazionale su questa complessa frontiera. L’analisi contenuta nel suo ultimo saggio, Diritto dell’Intelligenza artificiale (ed. Zanichelli), va oltre il complesso ambito della giurisprudenza di settore, affrontando la stretta correlazione che intercorre tra sviluppo tecnologico, equilibri geopolitici e crescita economica. Colpisce la sua capacità di visione interdisciplinare del governo del mondo.

Prof.ssa Finocchiaro, la tecnoscienza corre e trasforma le nostre vite, modificando comportamenti, relazioni e abitudini: siamo dentro un grande “cantiere” aperto. La legislazione europea sta rispondendo adeguatamente a queste sollecitazioni?

Il vecchio Continente ha deciso di rispondere costruendo una propria “sovranità digitale”, partendo dalla consapevolezza che questo settore sarà decisivo per le future prospettive di crescita. Il processo di normazione può essere ricondotto alla “direttiva madre” sulla protezione dei dati personali del 1995 e alla normativa sulle firme elettroniche del 1999. Oggi, l’identità digitale è regolata con il Regolamento e-IDAS 2; la protezione e la valorizzazione dei dati personali dal GDPR, dal Data Act, dal Data Governance Act e dal Regolamento sullo Spazio europeo dei dati sanitari; l’ambito dei servizi digitali e del mercato digitale dal Digital Services Act e dal Digital Markets Act; infine, l’intelligenza artificiale è disciplinata dal recente AI Act.

Come si colloca l’Italia in questo quadro così articolato?

Siamo a uno stadio piuttosto evoluto. Il nostro Paese può infatti vantare una tradizione giuridico-normativa in ambito digitale che risale all’inizio degli anni Novanta, con un impegno costante confermato anche dall’agenda della Camera, attualmente al lavoro per licenziare un disegno di legge sull’intelligenza artificiale.

Le basi della Costituzione europea

In una recente intervista rilasciata alla nostra testata, Franco Pizzetti, a proposito dell’eccezionale sviluppo del digitale, ha commentato:“Regolare il digitale significa porre le basi per la Costituzione europea”. Qual è il suo pensiero in merito?

Nel contesto geopolitico globale, la strategia perseguita dall’Unione europea è quella di porsi come leader nella produzione normativa, per far sì che il modello continentale diventi un riferimento globale e possa essere adottato anche in altre regioni del mondo. Quella che si intende affermare, come accennavo prima, è una “sovranità digitale” sia esterna – rivolta agli altri attori globali, in particolare USA e Cina – sia interna, perché gli effetti delle misure legislative ricadono sugli Stati membri dell’unione. In questo processo emerge con chiarezza l’esigenza, del tutto comprensibile, di affermare un modello innovativo, evitando la frammentazione, che rappresenta sempre un pericolo incombente.

Guardando all’intelligenza artificiale, tema centrale del suo interessante saggio, quali indirizzi metodologici andrebbero seguiti e quali aspetti potrebbero essere oggetto di normazione in una materia così delicata?

Regolare l’IA non è un compito di poco conto, se si pensa all’estrema ampiezza dell’oggetto da disciplinare. Occorre innanzitutto chiedersi se sia opportuno, per il legislatore, adottare un approccio volto a regolamentare l’intelligenza artificiale nel suo complesso, oppure concentrarsi sulle applicazioni dell’intelligenza artificiale in specifici settori o ambiti tematici. La prima opzione è quella adottata dal Regolamento europeo sull’intelligenza artificiale, che presenta infatti un approccio normativo orizzontale. La seconda è quella auspicata da alcune organizzazioni internazionali, secondo cui si sarebbe preferibile regolamentare le applicazioni sull’intelligenza artificiale – o, più precisamente, i loro effetti – in specifici ambiti. La questione fondamentale sottesa alla scelta tra i due approcci riguarda lo scopo della regolazione. Le strade possibili sono due: da un lato, dettare regole nuove per un fenomeno inedito; dall’altro, limitare l’intervento normativo a quanto strettamente necessario per superare o rimuovere gli ostacoli giuridici all’utilizzo della tecnologia.

Per il giurista qual è la strada preferibile?

Non c’è una strada giusta in assoluto: bisogna considerare che gli ambiti del diritto che intersecano la regolazione dell’intelligenza artificiale sono molteplici – dalla protezione dei dati personali trattati da sistemi di intelligenza artificiale, al diritto d’autore, dalla responsabilità civile a quella penale. Si tratta di una materia estremamente articolata, che richiede una visione di insieme e una grande capacità di coerenza disciplinare. Con l’AI Act, il legislatore europeo ha inteso salvaguardare non soltanto i diritti fondamentali, ma anche i “valori” europei. Quest’ultimo aspetto è richiamato più volte nel Regolamento, a sottolineare che il modello elaborato non è solo normativo, ma anche culturale. Non si tratta soltanto di regole giuridiche, ma anche della cultura che esse esprimono.

La Privacy come fondamento della società dell’informazione

Lei segue da sempre i temi della privacy in un’ottica autenticamente globale. Molto è cambiato dalla fase che potremmo definire ‘fondativa’, tracciata da Stefano Rodotà, alla complessità dello scenario attuale. L’IA ha impresso un’ulteriore accelerazione, segnando un vero e proprio “salto quantico” nella rivoluzione in atto. Con quali conseguenze giuridiche?

L’intelligenza artificiale si basa sui dati e, pertanto, la protezione dei dati personali deve essere affrontata con rigore quando si tratta di questa materia. Le questioni in gioco sono molteplici. Il primo aspetto che emerge è il contrasto tra l’esigenza di disporre di un’ingente mole di dati ai fini dello sviluppo di sistemi di intelligenza generativa e la necessità, opposta, di rispettare il principio di minimizzazione previsto dal GDPR, secondo cui il trattamento dovrebbe avere ad oggetto soltanto le informazioni strettamente necessarie e pertinenti in relazione alle finalità perseguite. Inoltre, poiché l’IA si nutre soprattutto di grandi masse di dati, la qualità di questi ultimi diventa un fattore essenziale. Da dati qualitativamente non corretti non possono, infatti, che derivare elaborazioni non corrette, secondo il noto principio “garbage in, garbage out”. Ma attenzione: i punti di frizione tra IA e la disciplina a tutela dei dati personali non si esauriscono a questi esempi presi in esame. Sarà infatti necessario un grande lavoro di coordinamento tra queste norme, che porterà – è facile prevederlo – a una revisione del GDPR.

Allarghiamo lo sguardo: diritto, cultura e tecnologia, in una delicata fase di trasformazione come quella che stiamo vivendo, in che rapporto dovrebbero stare?

Il diritto, come la cultura, è espressione del tempo storico in cui viviamo. La tecnologia va regolata, seguendo principi chiari e condivisi. Tuttavia, la pressione del quotidiano e le urgenze che connotano ogni nostra attività spingono all’adozione di immediate “istruzioni per l’uso”. Se dovesse prevalere questa tendenza il rischio – molto serio – è quello che i giuristi definiscono “overregulation”. Il giurista, però, non può cedere a questa tentazione, abdicando al proprio compito interpretativo e delegando tutto alla logica della compliance.

Il doppio legame tra diritto e geopolitica

Non si tratta di disquisizioni giuridiche astratte, quelli che Lei pone, se si considera la ricaduta che l’impianto giuridico–normativo avrà non solo sugli assetti del capitalismo – che sta mutando profilo – ma anche su quelli geopolitici, come dimostra la competizione innescata tra sistemi-Paese. Europa, Stati Uniti e Cina si muovono in uno scacchiere globale in cui si osserva una pericolosa commistione tra potere e tecnologia. Il fenomeno della tech right è emblematico sotto questo profilo. Riusciremo a trovare un punto di equilibrio tra la spinta ineludibile all’innovazione e i principi dello Stato di diritto, che sembrano vacillare in questa tormentata fase della storia?

Il mercato delle nuove tecnologie, e in particolare quello dell’intelligenza artificiale, è senza dubbio un mercato globale, privo di barriere geografiche, e appare sostanzialmente diviso in tre aree di influenza: quella europea, quella statunitense e quella cinese. Il modello adottato in Europa è di tipo regolatorio: l’obiettivo non solo normare e disciplinare i nuovi fenomeni, le tecnologie emergenti e i beni digitali, ma anche promuovere il cosiddetto “effetto Bruxelles”, ovvero proporre il modello europeo come riferimento globale. Il modello adottato negli Stati Uniti, dovendo semplificare, è un modello co-regolatorio, basato principalmente sull’antitrust. Il modello cinese, invece, appare un modello dirigistico e basato sul capitalismo di Stato. Trovare un punto di incontro tra questi diversi approcci non è certo facile, ma è necessario. Diverse organizzazioni internazionali si stanno muovendo in questa direzione, a cominciare dall’UNCITRAL (la Commissione delle Nazioni Unite per il diritto del commercio internazionale, presso cui la professoressa Finocchiaro rappresenta l’Italia, n.d.r.), cui si è aggiunta di recente la Convenzione sull’IA stipulata dal Consiglio d’Europa.

Di cultura del diritto abbiamo già ampiamente parlato. “Responsabilità” è l’altro termine critico. Che valenza assume questo concetto nella società digitale?

È un concetto essenziale. L’intelligenza artificiale è uno strumento estremamente utile e potente, ma è necessario che chi la utilizza lo faccia con responsabilità. Sul piano giuridico, la questione che si pone più frequentemente riguarda l’individuazione del soggetto responsabile in caso di danni cagionati da applicazioni di IA. In particolare, l’attenzione si concentra sui casi in cui l’esito dell’elaborazione generata da sistemi di intelligenza generativa non sia del tutto controllabile a priori, e presenti un certo grado di imprevedibilità. Mi riferisco ai quei casi in cui il processo non ha una natura prettamente deterministica, ma è caratterizzato da una certa autonomia elaborativa. In queste situazioni, chi è il responsabile? Il fornitore? Il distributore? L’utilizzatore? O il sistema di IA stesso?

Come si rivolve il dilemma?

Si può cercare di adottare regole già esistenti per disciplinare un fenomeno nuovo, oppure andare verso l’elaborazione di nuovo paradigma normativo. Inoltre, potrebbe rivelarsi opportuno adottare un modello di responsabilità fondato su un sistema puro di allocazione del rischio, prescindendo dalla ricerca dell’errore, e ripartendo i costi tra i soggetti coinvolti nell’operazione economica in modo collettivo. In quest’ottica, si potrebbe ipotizzare la costituzione di un fondo, ovvero la formulazione di meccanismi di assicurazione in carico ai soggetti che potrebbero essere chiamati a risarcire il danno. Come si può notare, la materia è molto ampia e complessa, e va affrontata con consapevolezza, equilibrio, competenza e nel rispetto della diversità delle culture giuridiche che si confrontano nel panorama internazionale.

 

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE