Sempre più presente in workshop, eventi, articoli il tema dell’Intelligenza artificiale (AI) o intelligenza aumentata, tema che promette una nuova rivoluzione, un cambiamento radicale che coinvolgerà tutti i settori industriali e la pubblica amministrazione introducendo innumerevoli cambiamenti nei modelli di business e migliorando l’efficienza dei processi. Come sempre l’innovazione digitale introduce nuove opportunità e scenari da terra promessa, occorre però valutare, in questo caso, che il tema potrebbe nascondere anche alcuni rischi come la limitazione delle libertà personali, la discriminazione e la manipolazione dell’opinione pubblica. Sul tema dell’informazione, per esempio, la nuova frontiera del giornalismo si chiama Knowhere News, una startup americana che promette informazioni neutrali; in questa piattaforma una sapiente combinazione di l’intelligenza artificiale e machine learning promettono ai lettori solamente fatti. Chi pensava solo alle auto intelligenti e alla guida autonoma, forse dovrebbe considerare anche le informazioni automatizzate dalle macchine come già succede nel settore musicale. Gli algoritmi regoleranno: notizie, automobili, fabbriche, reti e la medicina. Ma quali sono i lati oscuri, i rischi di tutta questa innovazione? Sicuramente i temi di sicurezza e fiducia saranno sempre più centrali nella mitigazione del rischio e nel garantire la tutela dei nostri dati; la trasparenza e la corretta gestione di questi aspetti saranno fattori determinanti per il successo aziendale. Nick Bostrom, nel suo controverso libro “La superintelligenza”, sottolinea come sia necessario sviluppare, fin dall’inizio, tattiche e strategie per evitare che la superintelligenza arrechi minacce all’umanità. Bostrom propone alcune soluzioni, e in particolare una di queste consisterebbe nell’assegnare a questi agenti artificiali non solo compiti, ma anche valori reali, insistendo su come i governi debbano avviare una vera riflessione etica sugli usi e la governance di questa tecnologia. Uno dei temi centrali ad esempio sono i dati, sappiamo che tutti questi sistemi di AI per poter apprendere hanno bisogno di enormi quantità di dati e sarà quindi necessario valutare l’impatto su privacy e sicurezza. Le tecnologie AI potrebbero essere soggette a gravi violazioni di dati e furto di identità. Dobbiamo coinvolgere i data scientist a sviluppare modelli che tengano conto degli utenti e della sicurezza e riservatezza dei loro dati. Il GDPR ha già indirizzato il tema, creando un quadro normativo che garantisce la protezione dei dati personali insistendo su modelli di security by design che devono trovare applicazione e diventare processi consolidati nel software e nello sviluppo hardware. In questo contesto, la Commissione Europea ha pubblicato delle Linee Guida con riferimento alla progettazione di sistemi affidabili di intelligenza artificiale ma che al momento non sono requisiti obbligatori. Le linee guida includono una check-list che consente di verificare, già in fase di progettazione, la conformità alle raccomandazioni, una sorta di etica-by-design. Un nuovo concetto che deve essere coniugato insieme al quasi consolidato tema della sicurezza by design. Il documento della Comunità Europea non raccomanda solo la robustezza e la sicurezza dei sistemi, ma si focalizza sul ruolo centrale dell’essere umano nella relazione con l’intelligenza artificiale. I principi che devono essere combinati sono la dignità e la libertà, specialmente quando entrano in gioco gli algoritmi. Il documento evidenzia come l’autonomia delle persone deve prevalere sull’autonomia delle macchine e deve essere garantito un potere di supervisione da parte degli uomini. L’evoluzione di questi sistemi deve andare verso forme di AI trasparenti e chiaramente tracciabili, garantendo in questo modo uno sviluppo sostenibile di cui la nuova industria potrà beneficiare portando innovazione e benessere per l’uomo.

Nicola Sotira

Il nuovo numero di Cybertrends Italia: 

Sfoglia la rivista

Twitter
Visit Us
LinkedIn
Share
YOUTUBE