L’Intelligenza Artificiale Generativa (Generative AI) è una tecnologia in rapida evoluzione che presenta molte opportunità, ma anche alcuni rischi. Il suo grande successo è iniziato con il lancio di ChatGPT nel dicembre 2022 da parte di OpenAI.

In questo articolo sono descritti soltanto i rischi e non le numerose opportunità di Generative AI con un focus particolare sulle minacce che DPO e CISO devono considerare prima di adottare Generative AI all’interno delle loro aziende.
Tra i rischi principali della Generative AI ci sono l’inaccuratezza e le allucinazioni, la possibile violazione di privacy e la confidenzialità delle informazioni, la possibile violazione del copyright e della proprietà intellettuale, i bias (particolarmente allarmanti quelli relativi a genere ed etnia) e la tossicità.
L’inaccuratezza e le allucinazioni possono verificarsi quando i modelli di Generative AI generano contenuti che non sono accurati o che non hanno senso. Questo può essere dovuto a errori nei dati di addestramento o a limitazioni nei modelli stessi. Per ridurre questo rischio, è importante utilizzare dati di addestramento di alta qualità e verificare attentamente i risultati generati dai modelli.

Un esempio di inacurattezza di Generative AI si può verificare quando si utilizza un modello di generazione di testo per scrivere un articolo su un argomento specifico. Se il modello non ha abbastanza dati di addestramento sull’argomento o se non è in grado di capire il contesto e il pubblico, potrebbeg enerare testi che contengono informazioni errate, irrilevanti o incoerenti. Per esempio, se si chiede al modello di scrivere un articolo sulla storia dell’Italia, potrebbe generare testi come:

– L’Italia è una repubblica democratica fondata nel 1946, dopo la caduta dell’Impero Romano. Il suo capo di stato è il presidente della repubblica, eletto ogni sette anni dal parlamento.
– L’Italia è una nazione ricca di arte e cultura, famosa per i suoi monumenti come il Colosseo, la Torre di Pisa e il Duomo di Milano. Tra i suoi artisti più noti ci sono Leonardo da Vinci, Michelangelo e Dante Alighieri, autore della Divina Commedia.
– L’Italia è uno dei paesi più belli del mondo, con un clima mite e una varietà di paesaggi. Si estende dalla catena montuosa delle Alpi al nord, alla penisola e alle isole del sud, bagnate dal Mar Mediterraneo.

Questi testi contengono sia inacurattezze che allucinazioni. Il primo testo confonde la fondazione della repubblica italiana con la fine dell’Impero Romano, che avvenne secoli prima. Il secondo testo elenca alcuni monumenti e artisti famosi, ma ignora molti altri aspetti della storia e della cultura italiana. Il terzo testo descrive l’Italia in modo generico e superficiale, senza entrare nei dettagli o nei fatti interessanti. Per evitare questo tipo di inacurattezza, è necessario utilizzare modelli di Generative AI che siano addestrati su dati sufficienti e pertinenti sull’argomento, e che siano in grado di generare testi coerenti e informativi. Inoltre, è necessario revisionare e correggere i testi generati dai modelli, per verificare la loro accuratezza e qualità.
(source MS Co-pilot)

La privacy e la confidenzialità delle informazioni possono essere a rischio quando i dati sensibili vengono utilizzati per addestrare i modelli di Generative AI o quando i risultati generati dai modelli contengono informazioni sensibili. Per ridurre questo rischio, è importante seguire le migliori pratiche per la gestione dei dati e utilizzare tecniche di protezione dei dati come la crittografia e l’anonimizzazione.

Un esempio di violazione della privacy e della confidenzialità delle informazioni da parte di Generative AI potrebbe essere il seguente:
Un modello di Generative AI è stato utilizzato per generare una recensione di un ristorante a partire dal nome del ristorante e dalla data della visita. Il modello ha generato il seguente testo:
“Mi sono recato al ristorante La Pergola il 15 giugno con la mia famiglia e siamo rimasti molto soddisfatti. Il cibo era delizioso, il servizio impeccabile l’ambiente accogliente. Abbiamo ordinato una varietà di piatti, tra cui la pasta alla carbonara, il pollo al forno, la pizza margherita e il tiramisù. Tutto era fresco e ben cucinato. Il conto è stato ragionevole, considerando la qualità e la quantità del cibo. Lo consiglio vivamente a chi cerca una buona cucina italiana in un’atmosfera rilassata.”

Tuttavia, il modello ha violato la privacy e la confidenzialità delle informazioni sia del cliente che del ristorante. Il modello ha infatti utilizzato i dati personali del cliente, come il suo nome, il suo indirizzo email e il numero di telefono, che erano presenti nei dati di addestramento, per generare la recensione. In questo modo, il modello ha rivelato l’identità e le preferenze del cliente senza il suo consenso. Inoltre, il modello ha violato la confidenzialità delle informazioni del ristorante, in quanto ha generato una recensione falsa che non rifletteva la reale esperienza del cliente. Questo potrebbe danneggiare la reputazione e il business del ristorante.

Per evitare questo tipo di violazione, sarebbe necessario adottare delle misure preventive, come:

– Anonimizzare i dati personali dei clienti prima di utilizzarli per addestrare il modello, sostituendoli con dei segnaposto o delle etichette generiche.
– Verificare la veridicità delle recensioni generate dal modello, confrontandole con le fonti originali o con le testimonianze dei clienti reali.
– Informare i clienti e i ristoranti dell’uso di un modello di Generative AI per generare le recensioni e richiedere il loro consenso esplicito.
(source MS Co-pilot)

Il Garante per la protezione dei dati personali italiano ha emanato nella primavera del 2023 dei provvedimenti e delle prescrizioni specifiche per l’uso dei modelli di Generative AI (con particolare riferimento a Chat GTP). Tre le prescrizioni più significative ricordo:

– Richiedere il consenso informato e revocabile degli utenti prima di raccogliere e usare i loro dati personali per alimentare il modello di Generative AI.
– Informare gli utenti della finalità, delle modalità e dei destinatari dei dati raccolti e generati dal modello di Generative AI, nonché dei loro diritti in materia di accesso, rettifica, cancellazione, limitazione, opposizione e portabilità dei dati.
– Adottare misure tecniche e organizzative per garantire la sicurezza, la qualità e la trasparenza dei dati trattati dal modello di Generative AI, nonché per prevenire e segnalare eventuali violazioni dei dati.di Generative AI e cancellare i dati una volta raggiunta tale finalità o in caso di revoca del consenso da parte degli utenti.
– Apporre un segno distintivo (ad esempio, un’icona o una sigla) alle chat generate dal modello di Generative AI, per evidenziarne la natura artificiale e distinguerle dalle chat reali.
– Limitare il tempo di conservazione dei dati al minimo necessario per la realizzazione della finalità del modello

Nel corso del 2023 altri garanti privacy hanno adottato provvedimenti o messo linee guida su Generative AI, sulla scia di quanto fatto dal Garante Privacy italiano.

Il copyright e la proprietà intellettuale possono essere a rischio quando i modelli di Generative AI generano contenuti che violano i diritti di proprietà intellettuale di terzi. Per ridurre questo rischio, è importante comprendere le leggi sulla proprietà intellettuale (che variano di nazione in nazione) e utilizzare solo dati di addestramento che non violino i diritti di terzi.

Un esempio di violazione del copyright e della proprietà intellettuale da parte di un modello di Generative AI potrebbe essere il seguente:
– Utilizzare un modello di Generative AI per generare delle poesie basandosi sui testi di famosi poeti italiani, senza citarne la fonte o attribuire il merito ai veri autori.
– Pubblicare le poesie generate come proprie opere originali su un sito web o una rivista letteraria, ottenendo profitti o riconoscimenti ingiusti.
– Ricevere una denuncia legale da parte dei detentori dei diritti delle opere originali, che accusano il generatore di plagio e di violazione del diritto d’autore.
(source MS Co-pilot)

Infine, bisogna aggiungere tra i rischi i bias e la tossicità che possono verificarsi quando i modelli di Generative AI generano contenuti che sono discriminatori o offensivi. Questo può essere dovuto a bias nei dati di addestramento o a limitazioni nei modelli stessi. Per ridurre questo rischio, è importante utilizzare dati di addestramento che rappresentino in modo equo tutte le parti interessate e verificare attentamente i risultati generati dai modelli per evitare contenuti discriminatori o offensivi.

Un esempio di bias e tossicità che può generare un modello di Generative AI è quello di produrre testi che usano termini sessisti, razzisti o omofobi per descrivere persone o gruppi. Questo può creare danni alla reputazione, offendere i destinatari dei testi e alimentare l’odio e la discriminazione nella società. Un modo per prevenire questo tipo di problema è quello di utilizzare strumenti di rilevazione della tossicità per filtrare i testi generati e correggere o eliminare quelli che contengono parole o espressioni inaccettabili. Inoltre, è utile educare gli utenti sui rischi e le responsabilità dell’uso dei modelli di Generative AI e incoraggiare un uso etico e consapevole degli stessi.
(source MS Co-pilot)

Cosa aspettarsi per il futuro? Di sicuro ci sono alcuni trends di Generative AI già in atto che andranno a rafforzarsi:

  • Maggiore concorrenza, in particolare nei modelli linguistici.
  • Miglioramento della precisione e affinamento degli strumenti di autocontrollo (definiti in molti regolamenti di AI “guardrail”).
  • L’integrazione di AI in altri tools (per esempio le funzionalità di Copilot di Microsoft integrate nella suite Office oppure il miglioramento dei motori di ricerca Google e Bing “powered by” AI).
  • Sul lungo termine, Intelligenza Generale Artificiale (AGI) indistinguibile dalle capacità umane (si pensi alle nuove capacità di GPT-5 e Google Bard).

Concludo con il ricordare che la tecnologia Generative AI è in rapidissima evoluzione e numerose sono le startup che stanno lavorando di modelli sempre più evoluti e sofisticati di Large Language Model – LLM (alla base di Generative AI; la lista dei rischi riportati nell’articolo non è quindi esaustiva e DPO/CISP devono adottare un mind-set di “continous learning” al fine di restare al passo con l’evoluzione tecnologia ed essere in grandi di realizzare una “risk analysis” in grado di soppesare con equilibrio rischi e opportunità introdotte da Generative AI.

 

Autore: Corradino Corradi

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE