skip to Main Content

Perché la pandemia ha svelato alcune fragilità del machine learning

Quasi di colpo l’intera popolazione di un Paese (e successivamente di molti altri Paesi e interi continenti) smette di andare al cinema, di cenare al ristorante, non fa quasi più carburante, usa molte più ore di Internet e cerca di acquistare online mascherine chirurgiche a iosa, guanti in lattice e cuffie con microfono.

I modelli di machine learning che fino a quel momento cercavano di prevedere i nostri acquisti, i nostri comportamenti e magari di influenzare le nostre abitudini iniziano a sbagliare tutto. Non comprendono quello che succede (a essere pignoli non lo “comprendevano” neanche prima, ma almeno riuscivano a prevederlo) e diventano di colpo inutili, dannosi, o perlomeno inaffidabili.

La pandemia ha mostrato tutta la fragilità di certi modelli di machine learning, che non sono abituati a gestire cambiamenti repentini dopo anni di variazioni graduali. Chi può ha messo mano al codice inserendo modifiche e correzioni manuali, ma non tutti sono in grado di farlo: molte aziende acquistano soluzioni di intelligenza artificiale senza avere poi al loro interno personale con le competenze necessarie per gestirle. E se lasciate incontrollate alcune automazioni – pensiamo alla finanza, alla logistica o agli acquisti – possono causare danni economici non indifferenti. Come ad esempio i sistemi che effettuano ordini automatici di materie prime deperibili, per la lavorazione o la rivendita, anche là dove invece (e gli umani questo già lo sanno) le vendite si stanno per fermare e lo resteranno a lungo. Se lasciata senza controllo l’AI rischia di riempire un magazzino di prodotti che andranno a male senza essere mai venduti.

I modelli predittivi hanno fallito il loro primo vero appuntamento con un cambiamento epocale – certo, di quelli che si trovano solo nei libri di storia – e nel settore dell’intelligenza artificiale questi problemi non sono presi sottogamba. Sappiamo tutti che il machine learning lavora con i dati che gli vengono forniti e non ha la capacità che abbiamo noi umani di prendere un’informazione in un certo ambito (“si sta diffondendo un virus che creerà un’epidemia”) e applicarla a un ambito completamente diverso (“devo disdire il viaggio del mese prossimo”, oppure “la prossima settimana non ci sarà bisogno di ordinare tutto quel cibo per il mio ristorante”).

Ma questa débâcle non fa che dare linfa a chi oggi si batte per ridurre l’importanza del deep learning “spinto”, arricchendolo (o condizionandolo) con elementi simbolici, conoscenze già acquisite che integrino ragionamento e intuizione per “guidare” le reti neurali, cercando di far loro evitare aberrazioni e stranezze.

Chi però secondo me ha colto nel segno uno degli aspetti principali del problema è Thomas G. Dietterich, professore emerito presso la Oregon State University ed ex presidente della Association for the Advancement of Artificial Intelligence (AAAI), che in un tweet di risposta al thread di Gary Marcus ha evidenziato come una delle caratteristiche di un sistema di machine learning dovrebbe essere quella di segnalare episodi troppo anomali. Una spia che dovrebbe far dire al modello “attenzione, qualcosa di grosso mi ha portato fuori strada: non sono più affidabile“.

Continua a leggere su Start Magazine.

Back To Top