Nuovi scenari digitali: occhio alla “datacrazia”

“Parlare di dati e algoritmi vuol dire occuparsi praticamente di tutto. Delimitare il campo di indagine è già un’impresa quando si parla, infatti, di un tema complesso come la rivoluzione digitale”. La prefazione del saggio Datacrazia, antologia curata da Daniele Gambetta (D Editore), giornalista freelance, collaboratore di numerose riviste, esperto di scienza e tecnologia, fa da incipit a quello che si può definire come un esperimento di “auto-formazione” e “co-ricerca”. Abbiamo chiesto all’autore di soffermarsi sulle finalità di un’operazione editoriale che raccoglie una pluralità di validi e interessanti contributi e che presenta le sembianze di un progetto oltre che, per dirla con Umberto Eco, di “un’opera aperta”.

Dottor Gambetta, ci può dire come nasce questo lavoro?

L’idea è nata un anno fa, quando con la casa editrice, D Editore, abbiamo ritenuto che i tempi fossero maturi per proporre una riflessione, soprattutto nel dibattito italiano, su aspetti politici ed economici legati allo sviluppo della società dei dati. L’influenza delle tecnologie dell’informazione è ormai pervasiva, quindi parlare di dati e algoritmi significa, come lei ricordava prima, parlare di una miriade di micro e macro processi emergenti afferenti a vari campi della produzione e del sapere. In questo contesto, la maniera più consona di procedere ci è sembrata quella di un lavoro antologico e quindi a più voci, chiedendo ad autori e autrici afferenti a diversi background (giornalisti, ricercatori, economisti, musicisti, studiosi dell’arte, attivisti…) di fornire un punto di vista specialistico in relazione ai campi di interesse, con la finalità di tessere un filo rosso, un punto interpretativo convergente.

“Datacrazia” è il titolo forte che riassume le tante questioni trattate (non-neutralità dell’algoritmo, proprietà dei dati e delle piattaforme) e che allude a una forma di potere fondato sulla conoscenza e il controllo delle informazioni. Non si era mai verificato nella storia che l’umanità potesse disporre di un giacimento talmente ricco da superare ogni immaginazione. Quali conseguenze genera un fenomeno di tali proporzioni, che vede i colossi della Rete pronti a trarre i maggiori vantaggi dallo sviluppo dei Big Data?

Il titolo dell’opera è tratto da una celebre citazione del
sociologo Derrick de Kerckhove (“Benvenuti nella datacrazia”) ed è una chiara provocazione. Se da un lato è vero che ci troviamo di fronte a una crescita storica ed esponenziale delle tecnologie di cattura e analisi dell’informazione, dall’altro dobbiamo anche distinguere cosa è nuovo da cosa è vecchio. La propaganda è “sempre” esistita, l’analisi del target anche; oggi accade che questi processi assumono strategie complesse e in continua evoluzione, ma davanti a un non-troppo-scandalo come Cambridge Analytica dovremmo anche collocare il timore verso la tecnologia in un contesto più ampio, che riguarda anche il potere delle piattaforme, ma più in generale potremmo dire di alcuni soggetti privati che condizionano i processi democratici.

“Il mito del calcolo”

Un algoritmo oggi è in grado di valutare gli insegnanti, gli investimenti in borsa, se e quando ci ammaleremo, quale profilo assumere o licenziare, condizionando il corso delle nostre vite. Tutto appare misurabile, nella visione di una pericolosa utopia che sta espropriando l’individuo dei poteri di scelta e di decisione, che non appaiono più frutto di valutazioni culturali, maturate con l’esercizio dello studio e della riflessione umana. Quali sono i rischi di un percorso evolutivo ancora poco conosciuto e dibattuto?

Il rischio è soprattutto di carattere culturale. Uno dei temi affrontati nell’antologia è il mito della neutralità algoritmica. Chiariamo subito una cosa: non siamo luddisti o tecnofobici. Un utilizzo dell’analisi dati e degli algoritmi – ad es. del machine learning – può essere utile, bisogna sempre considerare però che l’output non è oggettivo e neutrale, ma frutto delle scelte e dei modelli che risiedono a monte nella fase di progettazione. Sono noti casi di algoritmi affetti da bias razzisti e sessisti, provenienti dai dataset utilizzati in fase di addestramento e di sperimentazione. Qualora un software viene utilizzato in ambito sociale è importante ricordare che esistono e hanno il loro peso le scelte politiche nella stessa progettazione di un algoritmo.

Un aspetto importante che il testo affronta riguarda la dicotomia stato/piattaforme. Stiamo assistendo a un indebolimento della sovranità nazionale insieme a uno svuotamento dei parlamenti (il dibattito sulla democrazia diretta sollevato da Grillo e Casaleggio è molto indicativo al riguardo) che appaiono non più sorretti da istituzioni forti e soprattutto credibili. La diffusione dei partiti-piattaforma, pensiamo all’esperienza italiana del M5S inizialmente sottovalutata da molti, sta cambiando le regole della partecipazione democratica? Detto in sintesi: la digitalizzazione di tutti i processi sociali è destinata a trasformare il profilo, i soggetti e i linguaggi della politica?

Credo sia troppo forte proclamare la fine degli stati, e il tema è tanto complesso quanto in divenire. Quello che è certo è che il dibattito pubblico, sulla privacy così come sulla neutralità della rete o sul copyright, il più delle volte è in ostaggio di un bipolarismo di interpretazioni sul modo di concepire il mercato dell’informazione, e in questo scontro tra titani le istanze dei lavoratori dell’informazione, il ruolo dei prosumer (produttore e consumatori, come gli utenti facebook), e i diritti sociali non prendono mai parte del dibattito.

Il plusvalore della Rete

Nell’economia delle relazioni il plusvalore è legato alla messa in Rete di intelligenze, idee, conoscenze. Sta però accadendo che la profilazione di utenti, il monitoraggio costante delle nostre vite generano una diffusione sistematica e un’intensificazione della precarietà. Per quali ragioni il “capitalismo delle piattaforme” ha interesse a non riconoscere la “moltitudine produttiva”, che dovrebbe vedere tutti gli utenti come autori, produttori e protagonisti del business?

Il concetto di plusvalore di rete è estremamente utile per analizzare la fase attuale. Esiste continuamente un’estrazione di valore dalle nostre interconnessioni, la nostra produzione materiale e immateriale che ha luogo nelle relazioni (e qui si potrebbe anche connettere il tema alla questione del lavoro domestico e di cura), e in questo contesto le piattaforme (non solo i social network ma anche, ad esempio i processi di sharing a vari livelli) giocano chiaramente un ruolo dominante. È allora fondamentale mettere anche questo dato al centro del dibattito sul reddito di base incondizionato, che può configurarsi come una forma di riconoscimento della produzione diffusa.

Veniamo alla sicurezza, che è uno dei grandi temi del nostro tempo. Nella società digitale fondata su una stretta correlazione tra mente-macchina quali investimenti occorre fare per aumentare la tutela di quello che Rodotà definiva “il corpo elettronico”?

La privacy e la sicurezza sono oggi terreni di scontro, anche tra quei colossi di cui si parlava prima. La cessione delle nostre informazioni diventa forma di pagamento (“se non paghi, il prodotto sei tu”), o garanzia di sicurezza (“non aver nulla da nascondere”). Credo che occorra ripensare la costruzione dei rapporti sociali, oltre l’individualismo e la coercizione, è venuto il momento di immaginare istituzioni e piattaforme nuove e di rimettere al centro i diritti delle persone prima delle richieste delle multinazionali.

Proviamo a rimanere sulla trattazione dei diversi profili della sicurezza. Nello scorso mese di maggio è entrato in vigore il regolamento europeo della privacy. Cosa è cambiato in concreto per istituzioni, imprese e cittadini? Quali iniziative andranno adottate per rafforzare la cyber security?

Il nuovo regolamento della protezione dei dati (GDPR) è un insieme di linee guida, la cui applicazione poi non è sempre immediata. Per fare un esempio, nel regolamento si parla di “right to explanation”, diritto alla comprensione dell’algoritmo. In primo luogo questo significa prendere una forte posizione politica nei confronti di piattaforme private, spesso chiuse e non open source. Inoltre spesso questa “explanation” è messa a dura prova dalla costruzione

stessa degli algoritmi. È il caso del problema black box nel deep learning, ovvero la difficoltà, anche da parte dei ricercatori, di comprendere i meccanismi di ragionamento del software. Questo per dire che può sembrare anche fin troppo semplice delineare indicazioni su questi temi, poi la realtà è piena di aspetti complessi che vanno affrontati e risolti.

La necessità di sviluppare una cultura dell’algoritmo

Il libro parla di “cultura algoritmica”. Cosa occorre fare per facilitare la diffusione di una cultura digitale nel nostro Paese?

Occorre aprire spazi di discussione, e già stanno nascendo interessanti progetti. Un concetto interessante, ripreso anche dagli attivisti del progetto europeo Decode è quello di data commons, ovvero la possibilità di riappropriarsi del valore prodotto dai nostri dati, in modo aggregato e/o anonimizzato, tale da poter fornire utili strumenti a una collettività nella gestione dei servizi (urbani, informativi, decisionali…).

Abbiamo nello scorso numero intervistato Michele Mezza che ha appena pubblicato il saggio “Algoritmi e libertà”. Sintetizzo la sua proposta: “mettiamo gli algoritmi sul tavolo per svelare le finalità e i principi che orientano la ricerca in campi delicati come la sanità, la genetica, l’informazione in modo da far diventare la potenza del calcolo uno spazio pubblico, un bene comune.” Il Futuro possibile auspicato in conclusione del saggio da Lei curato ha dei punti di contatto con questa posizione che tende a invocare maggiore trasparenza da parte dei grandi player che operano nel mercato globale?

Sicuramente sì. Ricordiamoci che quando parliamo di “svelare gli algoritmi” stiamo chiedendo sia un lavoro di sviluppo tecnico (come per la questione della black box del deep learning), ma anche e soprattutto stiamo assumendo una posizione politica, rispetto alla closeness (il termine vuol dire che non consentono l’accesso e la consultazione del codice, non open source n.d.r.) delle piattaforme proprietarie. Se la via per imporre però condizioni alle grosse piattaforme appare oggi tortuosa (chi decide su piattaforme globali?), si apre la possibilità di creazione di nuove piattaforme, radicate sui territori e le reti sociali che ne fanno uso, che possano stabilirne “le finalità e i principi che le orientano”.

Quando Lei parla della necessità di schierare strategicamente le tecnologie esistenti per riprogettare il mondo intende sollecitare la politica a creare i presupposti per cambiare il corso delle cose e renderlo più vicino alle legittime aspettative di felicità e progresso dell’umanità?

Il soggetto a cui, in Datacrazia, rivolgiamo questa proposta, è in realtà ampio e aperto. C’è la comunità accademica, che potrebbe svolgere un ruolo chiave nella costruzione di una voce nuova nel dibattito sui dati e le regolamentazioni, ma esistono anche laboratori indipendenti, hacklab, spazi sociali e riviste culturali che ogni giorno costruiscono pratiche e analisi e quindi possibilità di aggregazione tra programmatori, comunicatori, precari e sfruttati dell’economia delle piattaforme. Da queste realtà, oggi, più che dalla politica istituzionale, mi aspetto una risposta strategica allo stato delle cose attuali.

Autore: Massimiliano Cannata 

Daniele Gambetta

Biografia

Laureato in matematica, giornalista freelance, Daniele Gambetta ha collaborato negli ultimi anni con varie riviste e testate giornalistiche – tra cui il Manifesto, Motherboard, Fanpage, Pagina 99 – con articoli e approfondimenti di scienza e tecnologia. Datacrazia è la sua prima pubblicazione saggistica. Partecipa al gruppo di ricerca indipendente HackMedia.

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE