L’Intelligenza Artificiale (IA) è un concetto emergente che facilita il processo decisionale intelligente e automatizzato e sta quindi diventando un prerequisito per l’implementazione di scenari IoT e Industria 4.0, nonché per altre aree applicative. Sebbene sia indubbiamente vantaggioso, non si dovrebbe ignorare il fatto che l’intelligenza artificiale e la sua applicazione al processo decisionale automatizzato potrebbe aprire nuove strade nei metodi di manipolazione e attacco informatico.

Quando si considera la sicurezza nel contesto dell’IA, è necessario evidenziare la dualità di questa interazione: da un lato, è necessario considerare che l’intelligenza artificiale può essere sfruttata per manipolare i risultati attesi, dall’altro le tecniche di intelligenza artificiale possono essere utilizzate per supportare le operazioni di sicurezza e persino per ridurre gli attacchi avversari. Prima di considerare l’utilizzo dell’IA come strumento a supporto della sicurezza informatica, è essenziale comprendere cosa deve essere protetto e sviluppare misure di sicurezza specifiche per garantire che l’IA stessa sia sicura e affidabile.

L’ENISA sta lavorando attivamente alla mappatura dell’ecosistema della cybersecurity dell’IA. Con il report “Cybersecurity of AI and standardisation” affronta la questione descrivendo il panorama della standardizzazione che copre l’IA.

L’obiettivo generale del report è fornire una panoramica degli standard (esistenti, in fase di elaborazione, in esame e pianificati) relativi alla cybersecurity dell’intelligenza artificiale (AI), valutarne la copertura e identificare le lacune nella standardizzazione. Lo fa considerando le specificità dell’IA, e in particolare dell’apprendimento automatico, e adottando una visione ampia della sicurezza informatica, che comprende sia il paradigma “tradizionale” di riservatezza-integrità-disponibilità sia il concetto più ampio di affidabilità dell’IA.

Il report descrive il panorama della standardizzazione che copre l’IA, descrivendo le attività delle principali organizzazioni per lo sviluppo di standard (SDO) che sembrano essere guidate dalla preoccupazione per conoscenza insufficiente dell’applicazione delle tecniche esistenti per contrastare le minacce e vulnerabilità derivanti dall’IA. Ciò si traduce nello sviluppo continuo di report, guide e di standard ad hoc.

Il report sostiene che gli standard tecnici e organizzativi generali esistenti (come, ad esempio, ISO-IEC 27001 e ISO-IEC 9001) possono contribuire a mitigare alcuni dei rischi affrontati dall’IA con l’ausilio di orientamenti specifici su come possono essere applicati in un contesto di intelligenza artificiale.

Il documento specifica, inoltre, che questo approccio non è esaustivo e che presenta alcune limitazioni. Ad esempio, mentre il report si concentra sugli aspetti del software, la nozione di IA può includere entrambi elementi tecnici e organizzativi oltre al software, come l’hardware o l’infrastruttura. Altri esempi includono il fatto che la determinazione delle misure di sicurezza appropriate si basa su analisi specifiche del sistema e il fatto che alcuni aspetti della cybersecurity sono ancora oggetto di ricerca e sviluppo, e quindi potrebbe non essere abbastanza maturo per essere esaustivo standardizzato. Inoltre, gli standard esistenti sembrano non affrontare aspetti specifici come la tracciabilità e la discendenza sia dei dati che dei componenti AI, o metriche su, ad esempio, la robustezza.

Il report guarda anche oltre la mera protezione dei beni, in quanto si può considerare la cybersecurity come strumentale alla corretta implementazione delle caratteristiche di affidabilità dell’IA e – viceversa – la corretta implementazione delle caratteristiche di affidabilità è fondamentale per garantire la sicurezza informatica.

Infine, la relazione esamina in che modo la standardizzazione può sostenere l’attuazione degli aspetti di cybersecurity incorporati nella proposta di regolamento dell’UE che stabilisce norme armonizzate sull’intelligenza artificiale.

https://www.enisa.europa.eu/publications/cybersecurity-of-ai-and-standardisation

https://www.enisa.europa.eu/topics/iot-and-smart-infrastructures/artificial_intelligence

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE