La polizia federale australiana si è rivolta all’intelligenza artificiale (AI) per la gestione di enormi volumi di file e immagini relative allo sfruttamento dei minori nonché per la lotta a questo tipo di criminalità.

Secondo i dati di vari rapporti, durante la pandemia e i lockdowns c’è stato uno “tsunami” di condivisione di immagini di sfruttamento minorile. Le autorità britanniche hanno registrato un aumento del 1500% delle segnalazioni di materiale pedopornografico online, mentre l’Australia ha registrato un picco del 129%.

Sebbene un aumento delle segnalazioni sia utile, la polizia sta lottando per affrontare le indagini associate. Gli agenti devono analizzare ogni dispositivo appartenente a un sospetto, che può includere la catalogazione e la valutazione di migliaia di foto per verificare se sono perfettamente innocenti o prove di sfruttamento sessuale di minori. Questo processo può richiedere giorni o settimane e non ci sono abbastanza risorse di esperti disponibili.

Rendendosi conto di aver bisogno di strumenti più intelligenti per gestire l’enorme volume di file e immagini, la polizia federale australiana si è avvalsa dell’intelligenza artificiale – spesso utilizzata per identificare schemi e dettagli nelle immagini come il riconoscimento facciale automatizzato, una tecnologia che potrebbe essere utilizzata per semplificare la ricerca di materiali sospetti, eliminando le foto perfettamente innocue e segnalando quelle che devono essere esaminate da un agente.

Secondo gli esperti, automatizzare questa ricerca iniziale del computer di un sospetto potrebbe far risparmiare centinaia di ore e consentire agli investigatori di completare le indagini più velocemente e, prima che un algoritmo AI possa eseguire qualsiasi tipo di pattern matching, deve essere prima addestrato. Nel caso di un algoritmo di corrispondenza delle immagini, il sistema deve essere dotato di migliaia di fotografie che soddisfano un criterio specifico.

Quindi, anche il sistema sviluppato dalla polizia australiana ha bisogno di essere addestrato e si è così avvalsa dell’aiuto del pubblico. Nell’ambito della campagna “My Picture Matters”, ai cittadini australiani adulti è stato chiesto di condividere 100.000 fotografie di se stessi come “bambini felici”. Il soggetto dell’immagine non è importante – compleanno, laurea, giornata sportiva ecc. – deve solo mostrare un bambino normale che svolge attività normali.

Il nuovo sistema, chiamato AiLecs, verrà quindi addestrato con le immagini per aiutare l’algoritmo a capire che aspetto ha un’immagine “normale” di un bambino. Una volta completata la formazione, AiLecs dovrebbe essere in grado di analizzare automaticamente il contenuto del disco rigido di un sospetto; le immagini di bambini “felici” verranno ignorate (inizialmente) mentre qualsiasi altra cosa verrà segnalata come sospetta.

Accelerando la ricerca forense, AiLecs aiuterà a consegnare alla giustizia i molestatori sessuali su minori più rapidamente o a scagionare più rapidamente sospetti innocenti. Una volta operativo, si spera che AiLecs possa essere condiviso con altre forze dell’ordine in tutto il mondo che stanno affrontando simili carenze di tempo e risorse nella loro lotta contro lo sfruttamento minorile.

L’IA non risolverà da sola il problema dell’analisi forense perché un agente di polizia umano deve ancora verificare i risultati generati. Ma se l’algoritmo funziona come previsto, AiLecs dovrebbe essere uno strumento potente per aiutare a chiudere più indagini più rapidamente, concludono gli esperti di Panda Security.

https://www.pandasecurity.com/en/mediacenter/technology/police-ai-abuse/

 

Twitter
Visit Us
LinkedIn
Share
YOUTUBE