Pensi che l’intelligenza artificiale sia infallibile? Un team di ricercatori del MIT (Massachusetts Institutes of Technology) ha realizzato un software che è in grado di ingannare i sistemi di riconoscimento delle immagini di Google così da fargli credere, per esempio, che la foto di un cane sia quella di … una coppia di sciatori.
Questo team ha sfruttato una tecnica di attacco informatico conosciuta come adversarial example, il cui meccanismo è alquanto semplice: l’immagine originale viene alterata di un singolo pixel alla volta e, dopo ogni modifica, per essere classificata, sottoposta al sistema di riconoscimento.
Ogni modifica è micorscopica rispetto a quella precedente e proprio per questo il sistema di intelligenza artificiale continua a classificare l’immagine come quella iniziale, anche quando, dopo milioni di piccole modifiche, il contenuto risulta completamente differente.
Basta un pixel. Questa tecnica non è del tutto una novità, ma il software realizzato dal MIT è molto più veloce ed efficace nel creare l’imbroglio.
Qualche mese fa, lo stesso team, aveva applicato questa procedura ad una situazione reale, ingannando un sistema di riconoscimento di immagini così che credesse che una tartaruga stampata in 3D fosse in realtà un fucile.
Sembra quindi che ingannare un sistema di intelligenza artificiale non sia poi troppo arduo, a patto però di sapere creare le immagini corrette: Jeff Clune della Wayoming University ha creato un disegno classificato da tutti i sistemi di intelligenza artificiale a cui è stato sottoposto come una stella marina. Peccato che agli occhi umani non fosse altro che un semplice scarabocchio.
Gli esperti OpenAi, l’organizzazione no profit che fa ricerca sull’intelligenza artificiale fondata da Elon Musk, spiegano come sia possibile ingannare un sistema di riconoscimento di immagini aggiungendo semplicemente alcuni pixel all’immagine originale. Agli occhi di un umano la foto rimane praticamente identica, ma queste infinitesimali modifiche sono sufficienti per mandare in crisi le più evolute intelligenze artificiali.
Ci sono rischi per la sicurezza? Il motivo di questo comportamento non è ancora del tutto chiaro, ma la poca difficoltà con cui è possibile ingannare un cervellone artificiale può creare diversi problemi. Ad esempio, cosa potrebbe accadere se una vettura senza conducente non classificasse correttamente dei pedoni in mezzo alla strada, oppure se una telecamera di sicurezza non riuscisse a riconoscere come tale una pistola di un malvivente?
Nella realtà, spiegano gli esperti di sicurezza informatica, condurre un attacco di questo tipo non è poi così banale e semplice: occorre inviare al sistema di riconoscimento delle immagini una quantità enorme di richieste, milioni, in rapida successione. Potrebbe quindi essere semplice bloccare l’attacco con apparecchi analoghi a quelli utilizzati per bloccare altre forme di hackeraggio.