La bionica porterà un cambiamento così radicale da farci interrogare sul significato stesso della vita

Ing. Ramilli, la diffusione della IA è un tema che interessa e affascina sempre di più non solo gli addetti ai lavori. Nei giorni scorsi se ne è parlato anche al festival della filosofia che si svolge a Modena Carpi e Sassuolo. Macchinazione il titolo. Come ha spiegato Il filosofo Roberto Esposito nel suo intervento introduttivo, l’uomo si è sempre servito di strumenti sempre più potenti per tentare di aggirare e dominare la natura. Quali sono le opportunità e i rischi di questo nuovo orizzonte che il rapporto uomo e robot apre?

Le opportunità che si manifestano grazie all’utilizzo di tecnologie avanzate come per esempio, la diffusione dei Robot sono ampissime. Siamo alla vigilia di una nuova era, di un nuovo scatto evolutivo. Grazie a questi strumenti sarà possibile ridurre il lavoro fisico dell’essere umano, ridurre la percezione della “fatica”, durante le nostre vite, potremmo illuderci di avere più tempo da passare con i nostri cari, riducendo le ore di permanenza in ufficio. Grazie alla bionica risulterà possibile “amplificare il nostro corpo”, donandoci capacità che oggi a stento sogniamo. Potremo inoltre sostituire parti di noi stessi con componenti meccatronici (arti meccanici, orecchio artificiale, etc.), che ci permetteranno una vita più lunga. Tale tecnologia, quando sarà a regime, introdurrà un cambiamento cosi radicale da dover rivalutare il significato stesso della vita e di conseguenza del genere umano.

Siamo insomma di fronte, come ha scritto Roberto Cingolani, a una “terza specie” con cui dobbiamo imparare a fare i conti?

Mi trovo in accordo con Roberto Cingolani nel pensare che avremo “a che fare” con una nuova specie, ma la cosa che ancora più mi affascina di questa nuova specie è la sua unicità nell’arco della storia. Infatti ogni evoluzione epocale, che ha segnato un’era geologica o antropologica non è mai stata “voluta” direttamente dall’uomo. Tutte sono state influenzate dall’uomo – certamente – ma non direttamente volute. Non è mai esistito un “homo erectus” che ha deciso spontaneamente di trasformarsi in un “homo neanderthalensis” o un “homo neanderthalensis” in “homo sapiens”. Invece alla vigilia di questa nuova era un “homo sapiens” può decidere di trasformarsi in “cyborg” cambiando cosi la propria specie.

Affascinante e nello stesso temo sconvolgente, non crede?

Tutte le volte che ci penso, invece che essere felice provo una sensazione di amarezza. Cosa significa decidere di appartenere ad una nuova specie? Cosa significa non essere più umani ma umanoidi? Ma se tutti decidessero di diventare umanoidi, abbagliati dalla speranza di vita eterna (o molto lunga) grazie alla continua sostituzione di pezzi di “noi”, che significato avrebbe la vita? L’uomo non è fatto per vivere in eterno ed i suoi difetti, proprio come le sue caratteristiche lo identificano e lo distinguono da tutto il resto del creato. Non è forse la scarsità di una risorsa che ne determina il suo valore? Quale valore attribuire alla vita se la sua scarsità si riducesse? Varrebbe ancora la pena di vivere oppure ci sentiremo come incatenati in un perenne purgatorio? Personalmente non vedo rischi relativi a conflitti di specie: “X mens” VS “Uomini” ma piuttosto vedo rischi relativi alla perdita di identità, alla perdita della capacità di agire, alla perdita nel “divertirsi”, perdendo così capacita di sognare e di soffrire. Queste ultime credo siano abilità molto importanti per noi esseri umani, perché danno sapore all’esistenza.

La cyber security si serve molto della IA . Quali sono le ragioni e i vantaggi sul piano della protezione degli asset produttivi e sull’individuazione delle vulnerabilità organizzative?

L’intelligenza artificiale meglio coniugata come Machine Learning (ML) aiuta notevolmente gli analisti sotto due principali aspetti. In primo luogo nella riduzione del rumore di fondo, abbassando il numero di falsi positivi. Gli eventi da analizzare sono sempre un numero molto elevato, a tal punto da essere impossibile leggerli tutti. Grazie a tecniche di ML gli eventi sospetti possono essere presi in considerazione, ridotti al minimo e presentati all’analista per la sua ultima ed autorevole analisi. In secondo luogo ed in maniera duale il ML aiuta l’analista nell’individuazione dei “piccoli segnali”, movimenti impercettibili all’occhio umano che, discostandosi dalla normalità, destano sospetto. Anche in questo caso il ML pre-processa tali eventi e decide, autonomamente o in modalità supervisionata, quali siano quelli da presentare all’analista che, in caso di positività, decide a sua volta di prendere in carico l’incidente e di gestirlo autonomamente.

L’autonomia delle macchine una minaccia per l’uomo?

Un aspetto che preoccupa è la possibile sostituzione dell’uomo da parte di macchine sempre più performanti. È un pericolo reale? Esistono dei correttivi che possono tutelare gli spazi di azione e intervento dell’uomo nelle organizzazioni produttive?

Non credo sia affatto possibile la sostituzione dell’essere umano nel processo decisionale. L’intelligenza artificiale, per com’è studiata e progettata, presenta un carattere specifico e non generalista. Cerco di spiegarmi meglio. I sistemi di intelligenza artificiale sono capaci di prendere decisioni contestualmente al luogo/ambiente in cui essi sono stati “addestrati”. Qualora si utilizza un algoritmo addestrato a trovare delle irregolarità sulla superfice della lamiera per riconoscere il volto di un essere umano, si può verificare che l’algoritmo non riesce a fare questa operazione. Questo perché l’AI “ragiona” secondo modelli logici esclusivamente “verticali”, anziché orizzontali, come fa l’uomo. E’ vero che già esistono dei progetti che tendono a insegnare alle intelligenze artificiali la cooperazione attraverso un cloud organizzato e quindi ad utilizzare il «modello artificiale» specifico al momento giusto. Contestualmente esistono protocolli che ambiscono all’addestramento di un modello atto a «imparare» in modo generale e non specifico, simulando cosi la mente umana. Si tratta però di prime sperimentazioni che non devono destare alcuna preoccupazione, almeno nell’immediato.

Quali sono le tecniche ed i principali algoritmi di machine learning maggiormente utilizzati nell’ambito della sicurezza informatica?

Sono molteplici le tecniche e gli algoritmi di Machine Learning utilizzati nell’ambito cybersec. Provo a riassumere i principali. Regressioni lineare, come per esempio i “Decision Trees” oppure i Suport Vector Regression (SVR) sono ampiamente utilizzati per effettuare azioni di predizione. In altre parole vengono impiegati questi algoritmi per decidere se una attività possa essere malevola o meno. Per esempio nei sistemi EDR (Endpoint Detection and Response) le regressioni lineari vengono implementate per comprendere se l’«n» richiesta a sistema (syscall) possa essere malevola o meno in funzione di uno storico «n-t» ed un modello che segue una data funzone f preventivamente addestrata sul sistema. La Classificazione, come per esempio Support Vector Machine (SVM) e Decision Tree Classification (DTC) sono utilizzati principalmente in modo supervisionato per classificare attacchi basandosi su un insieme precondiviso. Per esempio, nella nostra Yomi (la Open Sandbox realizzata da Yoroi, oggi disponibile gratuitamente sia su Virustotal sia attraverso il il proprio portale web) vengono utilizzati algoritmi di SVM per classificare i Malware all’interno di un numero prestabilito di comportamenti malevoli come per esempio: Ransomware, Trojan, RAT, Dropper, InfoStealer, etc. Il Clustering, come per esempio K-mins, Gaussian Mixture Model e Mistured Models vengono utilizzati, tipicamente in fase di analisi per la costruzione dei modelli che poi saranno utilizzati in produzione sui vari prodotti, come per esempio: sonde di rete, EDR o sistemi di Hunting. Oltre a quelli elencati vi sono algoritmi denominati «generativi» come per esempio: le catene di Markov e algoritmi genetici che non sono molto frequenti nell’ambito della cybersecurity anche se a volte vengono impiegati per calibrare le attività di testing delle tecnologie più diffuse.

Etica, scienza e tecnologia: il futuro in questo trinomio

La tecnologia non è certo neutrale come erroneamente si crede dipende molto dall’uso che se ne fa. Un errore va scongiurato quello della supponenza, che richiama il mito di Prometeo che ruba il fuoco agli dei o di Icaro che vuole avvicinarsi troppo al sole e per questo gli si bruciano le ali. Etica scienza e tecnologia possono trovare un punto di incontro?

Sono d’accordo su questa visione. La tecnologia e in modo particolare l’Intelligenza Artificiale non può essere considerata neutrale e per questo non deve essere messa alla guida di decisioni strategiche (aziendali, politiche, istituzionali), pensando che possiede i requisiti per prendere decisioni imparziali e «giuste» per tutti. Questo perché il trend decisionale dipende in modo strutturale dal modello architetturale su cui l’IA si fonda ed in modo particolare dal training che ha ricevuto tale modello. Ne consegue che se a un modello perfettamente neutro (difficile da realizzare, ma non impossibile), gli viene insegnato (attraverso training) un determinato comportamento, anche in modo quasi impercettibile ad un ipotetico arbitrio umano, esso avrà al suo interno un piccolo pregiudizio (bias) che con il tempo si manifesterà in modo sempre più eclatante fino a raggiungere paradossali decisioni. In quel momento sarà necessario prevedere un sistema di “Reset” o di “Stop” di quell’intelligenza perché diventerà presupponente, prenderà perciò decisioni sbagliate, che non sarà possibile correggere. Questo mi è personalmente accaduto adottando un modello che, nonostante le numerose correzioni da parte di più analisti, continuava a pretendere di aver ragione su un evidente errore. L’algoritmo è stato resettato nel 2017, abbiamo così consegnato al passato un’esperienza che ricorderemo e che continua a farci riflettere ogni qual volta ci misuriamo con l’universo mirabolante dell’innovazione, che pone ogni giorno delle sfide che non ammettono tentennamenti.

Autore: Massimiliano Cannata

 

Marco Ramilli

Twitter
Visit Us
LinkedIn
Share
YOUTUBE