Si può confondere un autobus con uno struzzo. Sì, anche le sofisticate intelligenze artificiali possono essere ingannate da modifiche impercettibili all’occhio umano, compiendo così errori di classificazione che un essere umano non farebbe mai. 

Una fragilità che rappresenta un serio problema per la sicurezza di strumenti e attività che si basano sull’Intelligenza Artificiale. Basti pensare alle automobili che si guidano da sole, a tutte le applicazioni del deep learning, le reti neurali profonde. 

Ora un team internazionale di ricercatori (Università di Trieste, Sissa e Università di Oxford) ha però scoperto un nuovo metodo per rendere queste reti neurali più robuste e difficili da ingannare.

Le reti neurali profonde sono algoritmi fondamentali nell’Intelligenza Artificiale, perché sono in grado di riconoscere strutture complesse in enormi masse di dati. Un esempio è la capacità di riconoscere ogni singolo oggetto all’interno di immagini, oppure di riconoscere il volto delle persone all’interno di una foto di gruppo o di un’immagine, un video ripreso per strada. 

Eppure queste reti possono essere ingannate: un hacker in possesso di alcune informazioni sulla rete, infatti, può facilmente inserire piccole “perturbazioni”, causando catastrofici fallimenti nelle predizioni della rete stessa. Può bastare, ad esempio, che l’hacker modifichi un’immagine di pochi pixel e l’Intelligenza Artificiale classificherà un autobus come uno struzzo; un tranello in cui un’“intelligenza umana” non cadrebbe mai. 

La vulnerabilità a questi adversarial attacks costituiva da anni un limite nell’utilizzo di questo tipo di reti nelle applicazioni in cui la sicurezza è un elemento fondamentale. Si pensi, solo per citare alcuni esempi, alla diagnostica medica, al controllo dei robot industriali, agli errori nella predizione dei mercati finanziari o agli errori nel riconoscimento delle persone.

Con questa nuova ricerca, gli scienziati sono riusciti a capire qual è l’origine matematica del problema – la fragilità nella classificazione di oggetti da parte degli algoritmi – e a dimostrare che, in alcuni casi, può essere risolto usando tecniche Bayesiane, vale a dire utilizzando un insieme di reti statisticamente coerenti che hanno la capacità di compensarsi a vicenda nell’errore che commettono, diventando più robuste.

Vale la pena di segnalare che, nel team di ricercatori, il primo autore dello studio è Ginevra Carbone, una giovane studiosa, dottoranda dell’Università di Trieste, una dei primi laureati in Data Science and Scientific Computing. Un risultato ancor più significativo considerando che, purtroppo, non sono molte le donne a intraprendere questi studi.

Argomenti #intelligenza artificiale #scienza