skip to Main Content

Intervista al Prof. Antonio Carcaterra: principi di minimo nella decisione delle macchine autonome.

Antonio Carcaterra è Direttore del Dipartimento di Ingegneria Meccanica e Aerospaziale della Sapienza Università di Roma, professore ordinario di Meccanica Applicata alle Macchine e docente dei corsi di Mechatronics, Vehicle dynamics, Mechanical Vibrations.

Già adjunct professor presso il Department of Mechanical Engineering della Carnegie Mellon University di Pittsburgh (USA), e precedentemente ricercatore presso l’istituto INM-Ingegneria del Mare del CNR, quale responsabile del settore interazione fluido-struttura, è stato invited lecturer in molte università europee ed in centri culturali sia italiani che esteri, sia su temi di ricerca avanzata che su temi legati all’innovazione e alla ricerca industriale. E’ stato direttore del dottorato in Meccanica Teorica e Applicata, direttore della Scuola di Dottorato in Scienze e Tecnologie per l’Innovazione Industriale, presidente del corso di laurea in Ingegneria Meccanica, Senior Fellow della Scuola Superiore Studi Avanzati della Sapienza e presidente del Consorzio Sapienza Innovazione, membro della Commissione Ingegneria Aerospaziale del Consiglio Nazionale dell’Ordine degli Ingegneri, già membro della Commissione Sicurezza dei Sistemi di Trasporto per il Ministero dei Trasporti e Infrastrutture e attualmente responsabile scientifico per la Sapienza del progetto MOST Centro Nazionale per la Mobilità Sostenibile del PNRR. E’ autore di circa 200 pubblicazioni scientifiche in settori che includono le dinamica dei sistemi complessi, meccatronica, controllo di sistemi dinamici e di veicoli/droni a guida autonoma. E’ inventore di diversi brevetti, ed è responsabile di progetti di ricerca di base e industriale. Ha diretto anche progetti nel settore più generale dell’innovazione tecnologica multidisciplinare e partecipa ad iniziative legate allo sviluppo di strategie industriali per l’innovazione e all’impatto tecnologico delle tecnologie più avanzate in settori giuridici e filosofici. Insegna corsi di meccatronica, dinamica dei veicoli meccatronici, e di dinamica delle strutture.

Elenco delle pubblicazioni: ResearchGate – Google Scholar

 

Il Prof. Antonio Carcaterra

 

Partendo dalle basi, cosa si intende per principi di minimo nella decisione delle macchine autonome?

I principi di minimo, o di massimo in modo analogo, sono principi ai quali si ispirano gran parte delle soluzioni, o anche dei tentativi di soluzione, di problemi di decisione complessa. Si tratta in sostanza di principi che hanno ispirato la possibilità di prendere decisioni razionali. Un esempio di formalizzazione dei problemi decisionali, in cui un principio di minimo è il fondamento della teoria delle decisioni, si colloca attorno ai primi anni del ‘900 all’interno della Teoria dei Giochi, fondata da John Von Neuman, uno dei più eminenti matematici del secolo scorso, e Oskar Morgenstern, un economista. Si tratta di una teoria delle decisioni di tipo economico se vogliamo, che si basa sul concetto di funzione di utilità, concetto generalizzato e ripreso nella teoria di Leonard Savage, che lo adatta anche al caso di decisioni basate su dati incerti, inserendolo in un contesto probabilistico.

In un problema di scelte economiche (ma la generalizzazione a contesti assai più ampi si è rivelata in seguito possibile e ricca di sviluppi ed applicazioni), le decisioni prese possono essere valutate attraverso una precisa misura numerica: gli effetti che discendono da una scelta in ambito economico possono infatti produrre un vantaggio, misurato da un guadagno, oppure uno svantaggio, misurato da una perdita. Guadagno e perdita rappresentano null’altro che l’indicazione numerica delle conseguenze di una scelta economica. Potremmo dire che le scelte economiche migliori sono quelle che minimizzano le perdite o massimizzano i guadagni. Sia pure in un ambito circoscritto all’interesse economico degli agenti che operano in un certo contesto, l’introduzione di una misura del grado di bontà di una sequenza di scelte attraverso una formulazione numerica e sintetica dell’utilità finale dello scenario cui le scelte hanno condotto, apre la porta ad una teoria matematica delle scelte ottimali che, per quanto visto, si formula precisamente in termini di minime perdite o massimi guadagni. In sostanza si intuisce, più in generale, che in tutti i contesti in cui si è alla ricerca di un metodo rigoroso per agire secondo scelte migliori, il punto cruciale è quello di introdurre un indicatore numerico associabile alle conseguenze delle scelte operate, cioè a quantificare, attraverso un indicatore numerico, la bontà dello scenario che si presenta al termine della sequenza delle decisioni assunte. Se tale numero è la misura del nostro gradimento o della nostra avversione nei confronti dello scenario che si prospetta (sia pur secondo un criterio soggettivo), esiste allora un modo ottimale di guidare le nostre scelte verso quello scenario che garantisca il nostro massimo gradimento o la nostra minima avversione. Questa idea, che costituisce un possibile fondamento della teoria delle decisioni razionali, si è evoluta ad opera di economisti, matematici, ingegneri e psicologi, tra i quali ricordiamo almeno Arrow, Sen, Nash, Pontryagin, Bellman, Kahneman e Amos Tversky, trovando applicazioni al controllo delle macchine autonome, allo studio dei processi cognitivi e all’intelligenza artificiale. Proprio in quest’ultima, si osservi che i principi di minimo, qui rappresentati quale chiave necessaria di un processo di scelta razionale, sono a fondamento del funzionamento delle reti neurali, del machine learning e dei modelli inferenziali di tipo bayesiano, a riprova della centralità delle soluzioni di minimo.

 

Come vengono implementati e bilanciati i diversi principi di minimo nei sistemi meccatronici complessi al fine di garantire un’operatività ottimale in ambienti dinamici e imprevedibili? In parole più semplici, come si riescono a bilanciare le diverse esigenze, come minimizzazione dell’errore, dell’energia, del rischio, del tempo e dei costi, in scenari reali fornendo una transizione naturale dalla spiegazione teorica alla pratica ingegneristica?

I principi in questione trovano oggi una larghissima applicazione nella guida dei sistemi robotici in missioni complesse. I principi di minimo o massimo, nella guida di sistemi autonomi (veicoli robotizzati), permettono in sostanza di operare una selezione ottimale dei comandi da impartire al sistema. In generale, nella evoluzione di un dispositivo autonomo, semplificando in modo drastico un processo assai complesso, possono essere identificati alcuni elementi cardine ricorrenti che contribuiscono alla decisione. In primis c’è un sistema di rappresentazione della realtà nella quale il dispositivo è immerso, che presuppone l’integrazione di due differenti sorgenti di informazione. La prima è di carattere empirico e fa riferimento ai dati che sono percepiti dalla macchina e provenienti dall’ambiente esterno, quali suoni, immagini, sensazioni tattili etc., attraverso l’uso di una fitta rete di sensori. La seconda sorgente di informazione sull’ambiente esterno ha natura teorica e proviene dalla conoscenza delle leggi che governano il mondo in cui la macchina agisce, siano esse leggi di natura (leggi della meccanica, dell’elettromagnetismo etc.) che di tipo umano e regolatorio (i codici di comportamento giuridico, etico, sociale etc.). Le due fonti di informazioni vengono integrate opportunamente con mutuo beneficio: i dati empirici migliorano il loro contenuto informativo se sono interpretati alla luce dei dati teorici e viceversa.

Il modello ora descritto permette alla macchina di tentare previsioni sugli scenari futuri. Infatti, note certe informazioni iniziali, e conoscendo lo scenario nel quale il sistema si trova immerso, tutte le leggi che governano l’evoluzione del sistema permettono di prevedere quali saranno gli scenari futuri in funzione dei comandi che impartiremo al dispositivo (ossia le decisioni assunte). Si pensi ad esempio ad un veicolo a guida autonoma. E’ chiaro che esistendo una notevole libertà ed arbitrarietà sui comandi che il veicolo può ricevere, esiste corrispondentemente una grande varietà di evoluzioni possibili nel moto della vettura, di fatto infinite. E’ chiaro però che non tutte le evoluzioni sono per noi equivalenti: ad esempio, nel caso di una vettura a guida automatica, gli scenari che conducano ad una collisione con altri veicoli, sono per noi indesiderati. La selezione della sequenza di comandi che l’intelligenza di bordo dovrà impartire, può seguire allora una strategia analoga a quella del problema economico prima visto. Il punto chiave risiede nell’introdurre un indicatore che assegni un punteggio numerico agli scenari che si presentano a seguito della applicazione dei comandi alla vettura. Per esemplificare, supponiamo di scegliere un indicatore che abbia un valore elevato quando la nostra vettura sia a distanza ravvicinata rispetto ad altre vetture e/o ostacoli che sono presenti nello scenario, mentre abbia valori piccoli quando queste distanze sono grandi. Un indicatore di questo tipo è facile da calcolare dal sistema di bordo sulla base delle informazioni che provengono dai sensori; il suo significato immediato è quello di misurare il livello di rischio di una possibile collisione: tanto più grande è l’indicatore, tanto maggiore è il rischio di collisione.  E’ chiaro allora che una strategia ottimale nella selezione dei comandi da impartire al veicolo, possa essere quella di minimizzare il rischio di collisione, ossia di agire in modo da rendere minimo l’indicatore di rischio. La tecnica matematica per risolvere questo problema è assai complessa, ma concettualmente il problema nella sua essenza è impostato in modo chiaro: il problema della decisione, come nella teoria dei giochi, è ridotto ad un problema di ottimizzazione matematica, e precisamente ad un problema di minimo.

E’ altresì chiaro che esistono, come nel caso dei veicoli a guida autonoma, dei margini di incertezza legati ad una componente imprevedibile negli scenari futuri, poiché parte dell’evoluzione dello scenario non dipende da scelte assunte dal dispositivo che stiamo progettando noi, ma dipende da decisione assunte da altri agenti (altri guidatori) che non sono sotto il nostro diretto controllo. Esiste però la possibilità di traslare il problema in termini probabilistici: l’indicatore potrebbe essere allora la probabilità di una collisione, e le scelte assunte dal sistema di controllo saranno atte a minimizzare tale probabilità.

Questo spero chiarisca come i criteri decisionali di sistemi autonomi, che agiscono in assenza della supervisione umana, possano essere strutturati come problemi di strategia ottimale nel senso del soddisfacimento di un principio di minimo rischio, o analogamente di massima sicurezza.

 

In che modo la meccatronica è chiamata a rispondere a questioni di etica in tema di macchine autonome? Quali sono le principali sfide che la meccatronica deve affrontare nel contesto dei veicoli intelligenti e delle squadre di robot, in particolare per quanto riguarda la sensoristica avanzata, la fusione dei dati ed il processo decisionale? 

Si capisce che un principio di minimo nel senso sopra descritto, seppur possa elegantemente supportare una teoria razionale delle decisioni, possa nondimeno imbattersi in problemi legati alle implicazioni di carattere etico, da una parte, e di responsabilità giuridica dall’altra, nel caso si realizzino eventi avversi, ad esempio la collisione. Su questa questione sono utili alcune precisazioni. Si noti che l’applicazione di un principio di minimo, non esclude che si possano verificare eventi avversi. In altri termini, la sequenza delle decisioni assunte mira ad inseguire sì una condizione di minimo rischio, ma questo solo compatibilmente con le leggi di natura e con la parziale imprevedibilità degli scenari che si realizzano. L’evento avverso non è quindi escluso a priori, caso mai si opera in modo che la sua probabilità sia minimizzata, ma non si può chiedere che questa sia nulla. Questa condizione da una parte non è compatibile con la tecnologia la quale, per quanto sofistica, non permette una ricostruzione degli scenari priva di errori. D’altra parte, la possibilità di escludere eventi avversi si scontra con un limite teoretico per cui, dovendosi operare in termini probabilistici, questa esclusione a priori non è compatibile con la struttura del problema così come prima formulato. Resta quindi aperta una domanda a cui è difficile dare risposta: nel caso di evento avverso, di chi è la responsabilità, e in quale misura? La questione non può essere risolta ovviamente in questa sede, ma possiamo aggiungere alcuni argomenti che possono costituire spunti di riflessione.

Si può tentare di formalizzare il concetto di responsabilità utilizzando un linguaggio e ed un punto di vista che sia “omogeneo” rispetto al contesto della decisione autonoma delle macchine, secondo quanto è stato precedentemente esposto. La ricerca di una responsabilità implica in sostanza la ricerca di una correlazione tra alcune azioni intraprese da un agente e le conseguenze che da essa derivino. Tale ricerca assume importanza proprio nei casi avversi, ossia quando le conseguenze prodotte siano per alcuni causa di danno. Ci sembra possano essere utili le seguenti osservazioni. In primo luogo l’accettazione di utilizzare la tecnologia dei dispositivi autonomi, come visto, significa accettare anche il manifestarsi di inevitabili eventi avversi. Inoltre, la tecnologia è così complessa che, anche chi progetta questi dispositivi, non ha facile capacità di predizione dei comportamenti del sistema ex-ante. In realtà, il progettista non prevede a priori quali saranno gli scenari, studiando per ogni scenario possibile una possibile azione conseguente. Il criterio di scelta illustrato con i principi di minimo è per certi versi molto più efficiente, perché le istruzioni di guida del sistema autonomo non prevedono esplicitamente quali saranno gli scenari, quanto piuttosto attribuisce un parametro di rischio a qualunque scenario possa manifestarsi, operando al fine di minimizzare questo rischio attraverso azioni ottimali. Questo modo di procedere è più efficiente proprio perché non deve prevedere in anticipo degli schemi di scenari possibili, peraltro difficilmente prevedibili e classificabili a priori. Piuttosto prevede un’azione ottimale, qualunque sia lo scenario che si manifesterà. Il criterio visto però ha una sua debolezza quando si debba valutare l’azione intrapresa sotto il profilo della responsabilità, perché il decisore automatico di bordo non opera attraverso istruzioni esplicite date al sistema, istruzioni che potrebbero essere valutate secondo gli usali criteri umani di giudizio delle scelte, ma piuttosto assume decisioni attraverso un sistema implicito di valutazione, la funzione obiettivo, soggetta ad un criterio di minimo.

Sebbene la teoria delle decisioni sia il tentativo riuscito di razionalizzare il comportamento umano, si deve prendere atto che questa modalità implicita di assunzione delle decisioni che ben si attaglia agli automatismi della tecnologia robotica, non è facilmente giudicabile in caso di eventi avversi, creando qualche diffidenza e difficoltà di giudizio.

Si potrebbe suggerire una modalità operativa per esprimere un giudizio su questi dispositivi, sospendendo il giudizio di responsabilità. Potremmo infatti adottare un approccio diverso, limitandoci ad esprimere un giudizio di approvazione circa un sistema di decisione autonoma. Si potrebbe immaginare di eseguire dei test di carattere statistico e comparare il numero e la gravità degli eventi avversi causati dal sistema di guida autonoma con gli eventi avversi causati da un guidatore umano, a parità di altre condizioni. Il sistema automatico potrebbe dirsi accettabile quando sia la numerosità, sia la gravità degli eventi avversi per portare a compimento la missione sia inferiore a quelli prodotti dalla media degli umani. Un tale criterio potrebbe avere un suo fondamento etico: si opta per il sistema che salvaguarda in modo più efficace, almeno in senso statistico, la incolumità degli esseri umani.

 

 

 

a cura di

Valeria Montani

Back To Top