skip to Main Content

Intervista al Prof. Avv. Fabrizio Criscuolo. Intelligenza artificiale e questioni di responsabilità civile

Fabrizio Criscuolo Professore ordinario di diritto civile nell’Università di Roma Sapienza, nella quale ha conseguito la laurea e ha iniziato la propria attività di ricerca dall’anno 1985.

Nel 2000 è risultato vincitore di un concorso di I fascia s.s.d. IUS/01-Diritto privato ed ha preso servizio il 2 gennaio 2001 in qualità di professore straordinario presso la predetta sede universitaria ricoprendo, dal 2004 come professore ordinario, l’insegnamento del diritto privato e del diritto civile nel corso di laurea in Giurisprudenza, fino all’anno accademico 2015/2016.

 

Il Prof. Avv. Fabrizio Criscuolo

 

Il Professor Criscuolo sarà uno dei relatori che prenderanno parte all’evento Verso lo sviluppo sostenibile dell’AI con l’intervento: Intelligenza artificiale e questioni di responsabilità civile.

 

Professor Criscuolo, a Suo avviso, quali saranno le nuove esigenze in merito al rinnovato approccio della disciplina della responsabilità civile alle IA?

L’esigenza di approfondimento o di nuove elaborazioni in materia di responsabilità civile ha sempre coinciso con passaggi storici epocali nell’ambito delle modalità di organizzazione delle attività di impresa e con momenti di radicali svolte sul piano delle conoscenze tecniche e dell’applicazione delle nuove tecnologie ai fenomeni produttivi.

È quasi superfluo rimarcare che anche l’attuale contesto, soprattutto (ma non soltanto) sul piano delle vicende della produzione e dei rapporti nel mercato, sta vivendo una profonda trasformazione legata all’avvento e allo sviluppo delle tecnologie digitali, le quali stanno segnando una vera e propria rivoluzione, in senso tecnocratico, in ogni settore delle relazioni sociali, dalla genetica alla comunicazione fino, appunto, ai processi produttivi e alla internazionalizzazione dei mercati.

Ci si trova cosí nuovamente di fronte all’esigenza di tornare a meditare sulle regole di prevenzione e di ripensare i meccanismi di tutela dei danneggiati da prodotti particolarmente sofisticati, anche alla luce della necessità di ridefinire il concetto di prodotto, nell’epoca della robotizzazione e dell’uso dell’intelligenza artificiale

 

Quali sono i rischi legati all’utilizzo dei robot nelle attività quotidiane dell’uomo a livello di responsabilità civile?

Le attuali regole possono rivelarsi insufficienti per far fronte ai rischi conseguenti all’uso delle nuove tecnologie e va ripensato il concetto stesso di prodotto, in quanto l’intelligenza artificiale trasforma i prodotti che da cose inerti divengono macchine pensanti e intelligenti. Vero è che i sistemi di robotizzazione sono frutto dell’intervento programmatorio dell’uomo ma è altrettanto innegabile che la condotta della macchina, in ragione della stessa intelligenza di cui è dotata, ha attitudine a sfuggire al controllo di chi programma e a condursi in modo autonomo e imprevedibile. E ciò, in relazione alla vigente disciplina sulla responsabilità per prodotto difettoso, implica ricadute su due distinti piani: da un lato, in quanto il difetto non può piú dirsi proprio del prodotto ma, semmai, del progetto programmatorio; dall’altro, in quanto il rischio non può non essere gradato sulla base delle differenti modalità di applicazione dell’intelligenza artificiale.

 

A Suo avviso all’interno della dottrina civilistica, quali forme di declinazione troverà la teoria delle responsabilità così detta “oggettiva”?

Nel caso di sistemi di intelligenza artificiale inclusi in prodotti, il creatore del sistema può essere chiamato a rispondere dei danni provocati dal sistema o dei difetti di esso, anche a seconda che il sistema in parola sia o meno assoggettato a controllo o supervisione, vuoi con meccanismi di responsabilità oggettiva, quasi fosse produttore di una componente del prodotto finito (in applicazione pertanto delle regole della direttiva sui prodotti difettosi), vuoi per colpa, tutte le volte che il sistema sia a basso-medio rischio di danno. È lasciata tuttavia impregiudicata ogni questione relativa al regime di responsabilità dei robot – i quali assumono ad un tempo la qualifica di prodotti e di cose semoventi e munite di autonomia in forza dei sistemi algoritmici che incorporano – come, ad esempio, le automobili senza conducente.

 

Quali sono i rischi provocati da queste nuove tecnologie, se sono già programmate possiamo ugualmente ricondurre la responsabilità all’uomo oppure no?

Come accennavo, il problema si pone perché gli algoritmi dell’intelligenza artificiale operano con un certo grado di autonomia e perché i loro ‘comportamenti’ si sviluppano sulla base di informazioni raccolte e processate da migliaia di fonti condivise, di talché la relazione di causalità col danno eventualmente determinato potrebbe non essere cosí lineare ed evidente, rendendo problematica l’applicazione di regole plasmate su un modello antropocentrico e monocausale di pregiudizio fondato sulla logica aristotelica

Al contrario, può essere considerato assai frequente che l’algoritmo ‘si comporti’ in modo totalmente indipendente dalle istruzioni inizialmente impartitegli dal programmatore. È proprio sulla base di questa constatazione che una dottrina assai autorevole, sia pure utilizzando per lo piú lo strumentario peculiare offerto per l’approccio al problema dall’ordinamento e dalla dottrina tedeschi, ha teorizzato addirittura l’attribuzione al software autonomo di una forma di personalità giuridica

In altri termini, l’imprevedibilità da parte dell’uomo, compreso il programmatore, delle decisioni che gli algoritmi di autoapprendimento possono assumere, ha attitudine a dar luogo ad una peculiare forma di ‘autonomia digitale’, fonte di rischi in sé e come tale giuridicamente significativa. Dunque, le persone elettroniche che assumono decisioni autonome, in quanto ‘agenti’ – o, meglio, ‘attanti’, come vengono definiti con espressione icastica –, potrebbero essere titolari di innumerevoli posizioni soggettive che spaziano dalle libertà alla capacità negoziale, dai diritti di credito, appunto, al risarcimento del danno.

In antitesi a tale concezione si sono levate autorevoli voci a difesa di una cultura antropocentrica e solidale, fondata su «una diffusa e adeguata istruzione quale antidoto alle distorsioni del fondamentalismo macchinico», nella direzione del pieno controllo e della comprensibilità umana dei processi dell’intelligenza artificiale, in sintonia con i valori costituzionalmente protetti. Su questa stessa linea sembra collocarsi anche il documento dell’Unione denominato Progetto europeo sull’intelligenza artificiale.

 

Nei casi quali ad esempio quelli derivanti dall’uso del machine learning, come si adatta la disciplina civile? Può essere ugualmente individuato un meccanismo risarcitorio?

L’apprendimento automatico, com’è noto, è una variante alla programmazione tradizionale nella quale in una macchina si predispone l’abilità di apprendere qualcosa dai dati in maniera autonoma, senza istruzioni esplicite. Lo scopo dei sistemi di apprendimento automatico basati su algoritmi è quello di consentire alle macchine di eseguire determinati compiti in maniera sempre più efficiente imparando dai propri errori. Cosicché, come detto, i danni causati dalle macchine “intelligenti” potrebbero non dipendere dall’architettura con cui i sistemi sono stati progettati, bensì dal modo in cui sono stati “addestrati” dagli utilizzatori finali, ad esempio a causa della cattiva qualità dei dati con cui sono stati alimentati.

L’esigenza di introdurre una legislazione nuova, idonea a disciplinare gli aspetti critici della questione relativa al “danno da algoritmo” è avvertita anche dalle Istituzioni europee. Di qui la necessità di emanare uno specifico regolamento.

Back To Top