Negli ultimi dieci anni, il Machine Learning (ML) o apprendimento artificiale è diventato sempre più comune, passando dal mondo digitale a quello fisico. Mentre alcune tecnologie sono praticamente sinonimo di ML, come gli assistenti vocali domestici e le auto a guida autonoma, altre possono invece sfuggire. Tra i casi d’uso comuni vediamo algoritmi di suggerimento per i servizi di streaming e i social network; il riconoscimento facciale/biometrico come lo sblocco del dispositivo; soluzioni di sicurezza antimalware e antispam; agenti di assistenza clienti e chatbot automatizzati; logistica di magazzino, approvazione di richiesta di prestito bancario, mutuo o assicurazione, rilevamento di frodi finanziarie, diagnosi medica e tanti altri.

Grazie alla facilità di accesso a grandi quantità di dati, librerie open source e materiale didattico prontamente disponibile, il ML è stato portato nelle mani delle persone e non solo di grandi multinazionali che utilizzano il ML per svolgere funzioni aziendali critiche.

Librerie come SciKit, Numpy, TensorFlow, PyTorch e CreateML hanno reso più semplice che mai la creazione di modelli ML che risolvono problemi complessi, inclusi compiti che solo pochi anni fa potevano essere eseguiti esclusivamente da esseri umani. La creazione e l’implementazione di un modello ora è così semplice che è possibile passare da zero a eroe in poche ore. Tuttavia, man mano che la barriera all’ingresso si abbassa, la barriera per proteggerla aumenta.

Come spesso accade, significativi progressi tecnologici possono essere sinonimo di un uso improprio della tecnologia che può essere abusata e attaccata.  Con la facilità con cui il ML può essere sfruttato e la profondità con cui la tecnologia è stata intrecciata nelle nostre vite, vi sono alcune domande che dovremmo porci: qualcuno potrebbe attaccare, interrompere o manipolare modelli ML critici? Quali sono le potenziali conseguenze di un attacco a un modello ML? Esistono controlli di sicurezza in atto per proteggersi dagli attacchi?

In base alla criticità del modello e al modo in cui un avversario potrebbe attaccarlo, le conseguenze di un attacco possono variare da spiacevoli a catastrofiche. Poiché ci affidiamo sempre più a soluzioni basate su ML, gli attacchi contro i modelli ML, noti in generale come adversarial machine learning (AML), stanno diventando più pervasivi che mai.

Un adversarial machine learning può assumere molte forme, da un singolo pixel posizionato all’interno di un’immagine per produrre una classificazione errata alla manipolazione di un modello di stock trading attraverso il data poisoning. Gli attacchi adversarial machine learning non assomigliano alla tipica infezione da malware. Almeno, non ancora.

Adversarial ML è una frontiera relativamente nuova e ancora agli inizi della cybersecurity. La ricerca su nuovi attacchi che producono comportamenti errati nei modelli è solo in aumento. HiddenLayer ha sviluppato la prima soluzione per contrastare questo tipo di attacchi attraverso una piattaforma non invasiva per monitorarli.

Start up fondata nel marzo del 2022 da professionisti ed esperti di sicurezza ML, HiddenLayer, con sede ad Austin, in Texas, aiuta le aziende a salvaguardare i modelli di machine learning alla base dei loro prodotti più importanti con una piattaforma di sicurezza completa.

La soluzione in attesa di brevetto di HiddenLayer fornisce una piattaforma non invasiva basata su software che monitora gli input e gli output degli algoritmi di machine learning per attività anomale coerenti con le tecniche di attacco Adversarial ML. Le azioni di risposta sono immediate con un framework di risposta flessibile per proteggere il proprio ML.

HiddenLayer MLDR utilizza una tecnica in attesa di brevetto che osserva gli input vettorializzati nel proprio modello ML e le decisioni che ne derivano. Il sistema apprende cosa è normale per l’applicazione ML univoca senza che sia necessario che venga detto esplicitamente.

HiddenLayer utilizza il framework MITRE ATLAS per allinearsi con l’autorità leader del settore sulle minacce adversarial che prendono di mira i sistemi di intelligenza artificiale. Secondo quanto dichiarato dalla società, questa soluzione ML è stata sviluppata, in attesa di brevetto, per aiutare tutte le organizzazioni a proteggere e difendere i modelli di machine learning dagli attacchi.

https://hiddenlayer.com/resources/%ef%bf%bcadversarial-machine-learning-the-new-frontier/

https://hiddenlayer.com/

https://www.securityinfo.it/2022/07/21/nasce-la-startup-per-la-sicurezza-dellintelligenza-artificiale/

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE