skip to Main Content

Intervista al Prof. Guido Sciavicco. Etica e linguaggio nello sviluppo dei sistemi di Intelligenza Artificiale

Guido Sciavicco ha conseguito una laurea triennale, magistrale e un Dottorato di Ricerca in Informatica presso l’Università di Udine (Italia). Ha lavorato come ricercatore post-doc junior e senior presso l’Università di Murcia (Spagna) e come professore assistente in visita presso l’Università per le Scienze dell’Informazione e la Tecnologia (Macedonia), nonché presso la Middle East Technical University (Cipro). Attualmente, è Professore Associato presso l’Università di Ferrara. Guido Sciavicco è anche il responsabile del Laboratorio di Logica Computazionale Applicata e Intelligenza Artificiale.

 

Il Professor Guido Sciavicco

 

Quali sono le principali sfide etiche nell’implementazione degli algoritmi di intelligenza artificiale secondo Lei, e in che modo è possibile mitigare il bias nei dati utilizzati per addestrare i modelli di intelligenza artificiale, garantendo così decisioni più eque e imparziali?

Il problema etico emerge nel momento in cui manca la comprensione profonda di quello che viene fatto. Manca la comprensione profonda da parte del cittadino comune, di alcune persone che utilizzano questi sistemi e, tristemente, in alcuni casi anche da parte di chi li costruisce, li vende, li propone e li implementa.

Una risposta brevissima alla domanda su come mitigare il bias nei dati è conoscere in maniera molto approfondita le tecniche che stanno dietro questi sistemi. È ben noto che se i dati non rispettano certe caratteristiche, possono causare deviazioni nei comportamenti dei sistemi. Tuttavia, questa non è l’unica, e forse neanche la prima, causa dei problemi di cui parliamo.

Il problema nasce quando c’è un comportamento non desiderato, tipicamente un comportamento che va degradandosi nel tempo oppure che non rispetta certe condizioni minime di sicurezza. Ci sono esempi molto famosi di questi casi, come grandi compagnie che usavano sistemi di intelligenza artificiale per fare screening dei curriculum e che si sono rivelati, nel tempo, non equi verso le persone di colore, perché i dati non erano bilanciati, avendo ricevuto un non corretto allenamento.

Un altro esempio è quello di una compagnia aerea che, recentemente, ha delegato a un sistema di intelligenza artificiale il dialogo via chat con i clienti, e questo sistema ha cominciato a promettere rimborsi in condizioni non previste dalla compagnia. La compagnia è stata poi obbligata a rimborsare i clienti.

Da dove vengono questi comportamenti non previsti? Derivano fondamentalmente dalla mancanza di conoscenza o da una forma di superficialità da parte di chi implementa questi sistemi. Anche perché la grandissima diffusione di queste tecnologie ha creato, come in tutte le bolle, anche una diffusione di practitioner, cioè di persone che si dichiarano pronte e preparate a proporre a costi agevolati e in maniera accessibile sistemi per le aziende o per le PA senza avere la giusta preparazione. Molti practitioner non hanno le basi statistiche, informatiche, o logiche adeguate ad una corretta implementazione e uso di questi sistemi, il che spesso porta a errori. Oggi l’utente medio, inteso come persona con un’infarinatura della materia, tende a considerare i moderni sistemi di intelligenza artificiale come plug and play, cioè pronti per essere utilizzati su un dominio nuovo senza modifiche. Questo è falso nella maggior parte dei casi ed è una delle cause dei problemi.

 

In merito al lavoro che svolgete nel laboratorio di Logica Computazionale e Intelligenza Artificiale Applicata (ACLAI), che dirige all’Università di Ferrara, ci spiegherebbe in cosa consistono i progetti che state curando? Come ad esempio l’apprendimento simbolico modale, la manutenzione predittiva e la lettura e interpretazione dei segnali EEG.

Ad oggi abbiamo molti progetti attivi. L’apprendimento simbolico è uno dei modi in cui si può fare intelligenza artificiale. È la controparte dell’apprendimento sub-simbolico, che è quello di cui si parla comunemente oggi. Mentre i sistemi sub-simbolici sono totalmente funzionali, ed elaborano i nostri dati senza spiegare come lo fanno e costruiscono delle funzioni predittive per un certo evento, i sistemi simbolici utilizzano regole esplicite per comprendere e predire eventi, e a differenza dei primi, non funzionano come scatole nere. I sistemi simbolici cercano di risolvere i classici problemi intelligenti, come predizione, raggruppamento, costruzione di pattern, usando regole esplicite, nel tentativo di far emergere, appunto, la conoscenza soggiacente in una forma comprensibile. In questo modo, è possibile valutare se una certa regola statistica emersa risulta sensata dal punto di vista teorico oppure no, se rispetta le condizioni minime di sicurezza, e se è accettabile. Questo è uno degli elementi che mancano normalmente nell’applicazione di questi sistemi, spesso avviati senza consapevolezza.

Un esempio del nostro lavoro è l’analisi dei segnali EEG (elettro encefalogramma) registrati mentre dei soggetti osservavano opere d’arte. La domanda, che appartiene al regno della neuroestetica, era se fosse possibile, dai segnali EEG, comprendere se una persona stava apprezzando l’oggetto che stava osservando. Abbiamo provato a rispondere progettando un sistema di intelligenza artificiale basato su regole che fosse in grado di trovare le regole che effettivamente mettevano in relazione la forma qualitativa e quantitativa di un segnale con il grado di apprezzamento soggettivo espresso, ottenendo un certo grado di accuratezza. Tuttavia, la cosa più importante non era solo ottenere un certo livello di risultato statistico, aspetto necessario sì ma non sufficiente, bensì estrarre le regole. L’estrazione di una formula logica che esprime causalità tra lo specifico segnale di un elettrodo e il suo comportamento d’onda specifico, e la determinazione di un certo grado di apprezzamento dell’opera è estremamente più esplicativa di una funzione (black box, cioè scatola nera) che può essere giudicata unicamente in base al numero di volte in cui la predizione è corretta rispetto al numero di volte in cui non lo è. La differenza tra l’apprendimento simbolico e quello sub-simbolico è tutta qui.

Nel nostro laboratorio abbiamo costruito, e stiamo costruendo, un sistema completo, end-to-end, per l’apprendimento simbolico da dati complessi come serie temporali, immagini, dati multi-frame, di cui i  segnali EEG, i segnali prodotti da sistemi di eye tracking, le immagini mediche, i segnali acustici, sono tutti possibili esempi. Questo sistema è di fatto una ricerca fondazionale, che prova a dimostrare che l’apprendimento basato su regole da dati non tabulari è possibile. Questa ricerca è poi associata a diverse applicazioni, come quella vista prima, oppure come un recente sistema di analisi del segnale audio di colpi di tosse e respiri al fine di diagnosticare infezioni polmonari come il Covid-19, appunto, un altro esempio delle potenzialità di questi sistemi.

La mission, potremo dire, dell’ACLAI Lab è quella di studiare, progettare e offrire soluzioni di intelligenza artificiale che possano integrare la logica formale nei progetti, come quello di “Sole.jl”, per garantire strumenti validi e matematicamente verificati. Come avviene questa garanzia e verifica?

Per insegnare a un sistema di intelligenza artificiale un certo comportamento, come diagnosticare una malattia, utilizzando sistemi simbolici, è necessario un linguaggio formale. Nel nostro laboratorio studiamo e proponiamo logiche adatte a descrivere questo tipo di conoscenza; “Sole.jl” è il nome del nostro framework, che include la possibilità di usare una grande varietà di linguaggi formali per estrarre, esprimere, e applicare la conoscenza dai dati. La verifica formale avviene nel momento in cui la regola emerge: possiamo leggerla, verificarla e giudicarla. Se costruiamo questi sistemi nella maniera che potremmo definire classica moderna, ovvero nella modalità oggi più diffusa, non possiamo effettuare questo passaggio. Dobbiamo accontentarci di una scatola nera che, senza spiegarci come, ci dice sì o no.

Il giudizio non potrebbe avvenire nel merito, ma unicamente sulla base del fatto che, ad esempio, “l’80% delle volte che dice sì, effettivamente è così”. Questa mancanza di formalità genera potenziali problemi, perché quando le condizioni cambiano, quando ci sono situazioni impreviste, quando il sistema deve prendere decisioni che possono essere cruciali per la vita, non ci si può basare su una mera statistica di accuratezza.

Non ci fideremmo mai di un pilota automatico che atterra correttamente il 90% delle volte, e lo stesso vale per i sistemi di intelligenza artificiale. Ci fideremmo, invece, se potessimo esaminare le regole che utilizza e sottoporle eventualmente al giudizio di un esperto. Questa è la differenza tra l’approccio simbolico e quello sub-simbolico. Il nostro laboratorio fa parte di quella minoranza che si occupa di approccio simbolico. La grande maggioranza, anche degli studi accademici, è di carattere ingegneristico e si basa dunque sulla capacità dei sistemi di adattarsi a situazioni diverse, di essere utilizzabili velocemente e con minore sforzo. Perché tutto è una questione di costo, facilità e accessibilità. Non si possono risolvere problemi senza realmente comprenderli: questo è il messaggio che bisogna trasmettere.

 

Dal Suo punto di vista, come vede la recente evoluzione delle normative internazionali sull’IA e quali aspetti ritiene debbano essere prioritizzati per garantire uno sviluppo etico e responsabile della tecnologia? Tenendo presente che il 1° agosto 2024 la legge europea sull’intelligenza artificiale è entrata in vigore, anche se le norme si applicheranno tra due anni.

Come in tanti altri casi, il legislatore tenta di correre dietro allo sviluppo tecnologico. È vero che, in un certo senso, attraverso questa legge si cerca di risolvere, o quanto meno di tamponare, alcuni problemi legati all’uso della tecnologia. Non è una legge che è particolarmente specifica rispetto alla tecnologia, bensì rispetto all’uso che se ne fa, includendo ad esempio, l’obbligo di dover marcare in modo evidente il contenuto digitale video e/o audio creato artificialmente.

Non ho un’opinione forte sulla specificità di questa legge, ma credo che il legislatore debba comprendere profondamente una tecnologia per legiferare correttamente su di essa. Quello di cui sono sicuro è che un intervento da solo non sarà sufficiente. Anche il legislatore, come qualunque altro utente, deve in qualche maniera prima digerire la tecnologia sulla quale va a legiferare per poterlo fare in maniera incisiva. Dunque, questa legge è sicuramente un passo necessario, e include elementi abbastanza naturali come l’idea che i chatbot debbano dichiarare di essere un’intelligenza artificiale e non possano ingannare l’utente facendogli credere di comunicare con una persona. Sono aspetti ragionevoli ma sicuramente non sufficienti, proprio perché per poter legiferare correttamente su questi temi bisogna conoscere in profondità la tecnologia sulla quale si vanno a prendere delle decisioni. Serve una profonda collaborazione tra giuristi e specialisti di matematica e informatica per poterlo fare in maniera efficace.

Così come oggi è essenziale per un aspirante magistrato come per tante altre figure conoscere strumenti di uso comune e universale, come fogli di calcolo o processatori di testo, anche l’alfabetizzazione su strumenti più moderni che fanno capo all’intelligenza artificiale dovrà diventare la normalità. Sarà necessario insegnare capillarmente l’uso corretto di queste tecnologie per evitare problemi derivanti da una comprensione superficiale, e se non si conoscono bene questi sistemi, dovrebbe essere proibito il loro utilizzo.

 

 

a cura di Valeria Montani

Back To Top