La sfida delle democrazie nel mondo iper-interconnesso e post-globale. Intervista VIP a Roberto Baldoni.
“La tecnologia viene talvolta descritta come il ‘nuovo Leviatano’ perché appare pervasiva, capace di influenzare ogni aspetto della vita collettiva e di concentrare un potere che sembra sfuggire al controllo democratico. Ma questa immagine è fuorviante: la tecnologia non ha una volontà propria, non è un’entità autonoma. È sempre un moltiplicatore di potere nelle mani di chi la progetta e la governa. La tecnologia incorpora i valori delle società che la sviluppano. Un algoritmo sviluppato in una società democratica riflette, pur con tutti i limiti del caso, un’impostazione orientata ai diritti, alla trasparenza, alla protezione dell’individuo. Lo stesso algoritmo sviluppato in un regime autoritario può essere progettato anche per sorvegliare, censurare o controllare. Per questo la primazia tecnologica delle democrazie non è solo una questione industriale, ma una questione di libertà. La tecnologia diventa un ‘Leviatano’ solo quando manca una governance adeguata o quando è costruita anche per fini di controllo.” Roberto Baldoni, già Professore Ordinario di Informatica presso l’Università La Sapienza di Roma, dove ha creato e diretto il primo centro di ricerca nazionale sulla cybersicurezza, Fondatore e Direttore Generale dell’Agenzia per la Cybersicurezza Nazionale. Oggi è Senior Advisor per le politiche tecnologiche e di cybersicurezza presso l’Ambasciata d’Italia negli Stati Uniti. È autore di “Sovranità digitale” (ed. Il Mulino), saggio in cui prende in esame le principali minacce del cyberspazio. L’intervista che segue trae spunto da questo importante e interessante studio.
Prof. Baldoni: “Sovranità digitale” non è un solo il titolo del suo saggio, ma un orizzonte articolato di riferimento non solo tecnologico, ma anche politico. Non crede che ci sia una contraddizione in termini, tenuto conto che i sistemi distribuiti e la connettività non ammettono quelle barriere e quei confini che definiscono la sovranità?
“Sovranità digitale” non significa autarchia tecnologica, né vuol dire chiudere le frontiere del cyberspazio. Nel libro descrivo l’importanza che risiede nella capacità di un Paese di mantenere un margine di scelta sovrana sulle tecnologie critiche da cui dipendono sicurezza, economia e democrazia: cloud, dati, reti, semiconduttori, intelligenza artificiale, piattaforme. In un mondo di sistemi distribuiti e supply chain globali, nessuno Stato può essere totalmente indipendente. La sovranità digitale oggi è autonomia strategica dentro relazioni di interdipendenza: poter dire “sì”, “no” o “così” a una tecnologia, a un fornitore, a una piattaforma, senza essere ricattabile. Potere avere queste opzioni non è scontato, ma dipende dalle politiche economicoindustriali e di sicurezza nazionale di un Paese.
La guerra ibrida
Siamo nel tempo della post globalizzazione, come Lei spiega molto bene nella prima parte del saggio. Quali equilibri si aprono sul terreno della geopolitica?
Siamo entrati nella fase della post-globalizzazione: le interdipendenze tecnologiche, che un tempo riducevano i conflitti, oggi vengono sempre più usate come strumenti di pressione geopolitica – dalle terre rare, ai chip, al cloud, dalla disinformazione agli attacchi cyber. È una guerra ibrida continua, economica e informativa, iniziata più di dieci anni fa e progressivamente intensificata. Le democrazie europee se ne sono accorte con colpevole ritardo: la pandemia e, subito dopo, l’invasione russa dell’Ucraina hanno mostrato quanto fossimo esposti. Le nostre catene del valore globalizzate, che spesso nascondono profonde dipendenze tecnologiche e energetiche, si sono rivelate capaci di trasformarsi rapidamente da opportunità economiche a vulnerabilità strategiche. Oggi le democrazie non sono indifese, ma devono colmare un divario organizzativo. La sfida è passare da una difesa frammentata (per settori, per Paesi e spesso per interessi industriali) a una strategia comune, in cui sicurezza economica, sviluppo tecnologico, innovazione e sicurezza informativa siano trattate come un unico fronte.
Anche sul fronte della difesa militare avviene tutto questo?
Certamente. Nel mondo iper-interconnesso e dell’AI, lo spazio economico-tecnologico e quello militare si sovrappongono. C’è poi un punto cruciale: le tecnologie incorporano i valori delle società che le producono. Negli anni ’70 e ’80 questo era quasi scontato: la quasi totalità delle tecnologie critiche nasceva negli Stati Uniti (e in parte in Europa). Oggi non è più così. La competizione tecnologica è diventata competizione tra modelli politici, tra sistemi di valori e tra visioni opposte del rapporto tra individuo, Stato e mercato. Per questo le democrazie devono restare unite. Senza una risposta coordinata, rischiamo che il futuro tecnologico venga plasmato da potenze che considerano la tecnologia non uno strumento di libertà, ma un mezzo di controllo. E il prezzo di una sconfitta, in questa competizione, sarebbe molto più alto di quello economico: riguarderebbe la natura stessa delle nostre società aperte.
Il rapporto tra potere e tecnologia caratterizza questa delicata fase della storia. Come si fa a regolare questo complesso connubio?
Potere e tecnologia sono sempre stati intrecciati, ma oggi la novità è la scala, la velocità e la pervasività delle tecnologie digitali, che incidono insieme su economia, sicurezza nazionale e diritti. L’obiettivo della regolazione non è frenare l’innovazione, ma orientarla, garantendo che tecnologia e potere restino compatibili con lo Stato di diritto e con la capacità delle democrazie di competere. Per questo non basta più la regolazione “ex post”, servono strumenti proattivi e istituzioni competenti. In primis, non si può prescindere da principi base democratici sui diritti fondamentali che devono valere per qualunque tecnologia: privacy, non discriminazione, trasparenza algoritmica (ove possibile), responsabilità nell’uso dei dati. Poi sulle supply chain critiche (cloud, 5G/6G, AI ad alto rischio, infrastrutture essenziali) vanno inserite verticalmente regole con requisiti stringenti di sicurezza e di governance non solo tecnici. Il Toolbox 5G europeo è un esempio di approccio geopolitico applicato a una supply chain specifica. Gli standard tecnici e le dottrine di “trusted” technology sono un altro pilastro. Una tecnologia non deve solo funzionare: deve essere sicura, controllabile e coerente con valori democratici. Vuol dire definire chi controlla software, hardware, dati e filiere. Se la tecnologia è elemento strategico in grado di bloccare l’economia, le politiche tecnologiche non possono essere affidate a linee di comando senza competenze adeguate o messe in seconda priorità. Questo blocca la crescita industriale ed economica di una nazione fino a staccarla dai Paesi più avanzati mettendola in condizioni di subalternità. Negli Stati Uniti sul lato tecnologico dell’amministrazione Trump vi sono importanti esperti, come lo erano quelli dell’amministrazione Biden. Infine, due regole base: “non puoi regolare ciò che non conosci” e “non puoi regolare ciò che non produci”. Ad esempio, l’AI Act europeo ha ignorato entrambe, tentando di normare una tecnologia di cui ancora non conosciamo completamente il comportamento e che l’Unione non produce su scala globale. Non stupisce che ora si punti a correggerlo con il Digital Omnibus Act, per evitare ulteriori danni alla competitività europea.
Gli indicatori della sovranità digitale
La sovranità digitale di un paese è qualcosa di oggettivamente misurabile?
Non esiste un “indice unico”, ma è possibile costruire una batteria di indicatori. Nel lavoro sulla sovranità digitale richiamo almeno quattro dimensioni: Capacità tecnologica, industriale e workforce: presenza nazionale (o in alleanze affidabili) lungo le filiere di tecnologie critiche: semiconduttori, cloud, AI, cybersecurity, satelliti, cavi. Numero di laureati STEM prodotti dal sistema nazionale e confronto con il fabbisogno interno. Capacità regolatoria e di enforcement: leggi chiare, autorità competenti in grado di applicarle, capacità di imporre condizioni a fornitori stranieri. Resilienza e sicurezza: livello di protezione delle infrastrutture critiche, tempi medi di rilevazione e risposta agli incidenti, adozione effettiva di standard di sicurezza. Potere di negoziazione e di alleanza: ruolo del Paese in accordi internazionali, organismi di standardizzazione e nella definizione di “club” di tecnologie fidate. La sovranità digitale, in sintesi, è una combinazione di capacità tecnica, potere economico, strumenti giuridici e alleanze politiche.
Nel profondo cambiamento d’epoca che stiamo vivendo, anche alla luce della rivoluzione apportata dell’intelligenza artificiale e degli algoritmi, la sicurezza cibernetica che posto occupa?
L’intelligenza artificiale generativa, e ancor di più l’AGI quando arriverà, trasformerà progressivamente le nostre società, proprio come i social network hanno trasformato le relazioni interpersonali. Sanità, finanza, difesa, infrastrutture fisiche, pubblica amministrazione, relazioni sociali: l’IA diventerà sempre più parte integrante di tutto questo. A quel punto, la cybersicurezza non sarà più un semplice layer verticale della pila tecnologica: diventerà il tessuto connettivo dell’intero ecosistema digitale. I modelli di IA si basano su immense quantità di dati e su infrastrutture cloud complesse. Questo li espone a nuove superfici di attacco: furto di modelli, data poisoning, manipolazione degli output, compromissione dell’infrastruttura di training e inferenza.
E più questi sistemi saranno integrati nel mondo reale, più un attacco digitale produrrà effetti materiali immediati: da errori puntuali, fino a ospedali bloccati, mercati finanziari destabilizzati, reti energetiche perturbate. Come è accaduto per l’informatica classica, anche nell’IA la frontiera delle minacce si sta già spostando a monte verso la supply chain dell’AI (framework, librerie, modelli open source, chip specializzati). L’IA presenta frontiere poco conosciute, come la manipolazione cognitiva, che colpisce direttamente le nostre menti e diventa esponenzialmente più efficace grazie ai contenuti sintetici. Questa dinamica rappresenta anch’essa una minaccia sistemica per la democrazia e la sicurezza nazionale. Per questo la cybersicurezza deve diventare by design, integrata lungo tutto il ciclo di vita dell’IA: progettazione, training, deployment, aggiornamento e audit. Nel quadro della sovranità digitale, la cybersicurezza diventa quindi l’abilitatore fondamentale per delegare alla tecnologia funzioni critiche senza perdere controllo.
Le diverse tipologie di minacce
Nel saggio viene fatta una disamina molto densa delle diverse tipologie di minacce. Può darci un’idea in rapida sintesi?
Nei libri e nelle mie lezioni distinguo quattro grandi famiglie: le minacce da attacchi informatici: attacchi sponsorizzati da uno Stato, attacchi di cybercriminali, attacchi di hacktivisti; le minacce alla integrità, confidenzialità e disponibilità di una filiera di fornitura; le minacce da tecnologie dirompenti: intelligenza artificiale e computer quantistici; le minacce sociali, economiche e industriali: disinformazione, standard internazionali della tecnologia, pratiche predatorie e forza lavoro. Siamo preparati, lei mi chiede? Meglio rispetto a dieci anni fa, sugli attacchi informatici e sulle pratiche predatorie, ovvero gli acquisti di asset nazionali critici da parte attori ostili. Abbiamo preso piena consapevolezza delle problematiche derivanti dal non controllo degli organismi di standardizzazione internazionale e degli attacchi alle catene di approvvigionamento, iniziando a mettere le prime basi efficaci di contrasto. Strutture come le agenzie nazionali di cybersicurezza, le normative su perimetri critici cibernetici, le regole sugli investimenti esteri e la direttiva NIS2 hanno contribuito a rafforzare la consapevolezza e a costruire resilienza. Tuttavia, il tessuto delle PMI resta vulnerabile e in Europa mancano ancora politiche industriali e di innovazione adeguate alle sfide del periodo che stiamo vivendo.
Quali sono le aree di maggiore vulnerabilità?
Siamo impreparati agli attacchi cognitivi e a quelli potenzialmente creati dalla tecnologia stessa, come la gestione degli errori generati dalle AI o l’impatto dall’arrivo dei computer quantistici. Tuttavia, la madre di tutte le minacce resta quella legata alla forza lavoro altamente specializzata. Tutti i Paesi occidentali affrontano un doppio deficit: producono un numero di laureati STEM inferiore al fabbisogno, aggravato da una forte denatalità. A fronte dei 4 milioni di laureati STEM sfornati dalla Cina nel 2024, gli Stati Uniti nello stesso anno hanno prodotto 750mila laureati STEM, di cui un terzo in ambito internazionale che con molta probabilità rientrerà in patria. Una nazione che non produce la forza lavoro necessaria dovrà importarla o delegare il controllo alle macchine. Nel primo caso si potrebbe scatenare un mercato aggressivo tra paesi occidentali like-minded, con il rischio di penetrazione di aziende ostili all’interno di aziende strategiche nazionali o supply chain critiche. Nel secondo caso, gli errori delle macchine sarebbero più frequenti, più impattanti e meno gestibili.
Qual è il posizionamento dell’Europa rispetto a USA e CINA nella partita dell’innovazione e della governance del fattore tecnologico, e che futuro si apre per l’UE?
Le debolezze strutturali dell’Unione Europea sono note: frammentazione con 27 politiche industriali diverse; meccanismi decisionali lenti e soggetti al diritto di veto; un potere regolatorio spesso avverso all’innovazione; assenza di grandi piattaforme tecnologiche, dovuta all’impossibilità di sfruttare la scala del mercato europeo; capitali di rischio molto inferiori a quelli statunitensi o cinesi. Superare questo impasse richiede un’unica strada: attuare pienamente l’Agenda Draghi.
Autore: Roberto Baldoni





