skip to Main Content

Intervista al Prof. Nicola Rizzo. Il ruolo dei modelli di responsabilità oggettiva

 

Nicola Rizzo è Professore Ordinario di Diritto privato presso il Dipartimento di Giurisprudenza dell’Università degli Studi di Pavia, dove è Presidente del corso di laurea in Scienze dei servizi giuridici e coordina attività didattiche e di ricerca in ambiti quali la responsabilità civile, il diritto delle obbligazioni e dei contratti, il diritto sanitario, il diritto dell’intelligenza artificiale e delle trasformazioni tecnologiche. Dirige, inoltre, progetti di ricerca di rilevante interesse nazionale (PRIN) in tema di Responsabilità nei sistemi tecnologici e partecipa a numerosi comitati di direzione, scientifici e di valutazione di riviste giuridiche. È, inoltre, membro di comitati direttivi e commissioni di studio e per i rapporti con la Magistratura di società scientifiche in ambito giuridico. Ha pubblicato studi monografici, in particolare su Il problema dei debiti di valore e La causalità civile, e tiene regolarmente lezioni e conferenze in Italia e all’estero. È membro del Collegio di Milano dell’Arbitro Bancario Finanziario e Avvocato ammesso al patrocinio dinanzi alla Corte di Cassazione e alle altre Giurisdizioni Superiori, presso l’Ordine di Milano.

 

Il Prof. Nicola Rizzo

 

Prof. Rizzo, nell’intervento curato in occasione dell’evento dello scorso 7 ottobre AI e gestione del rischio, fra regolazione e responsabilità: quali modelli di responsabilità, per colpa e oggettiva, e criteri di imputazione? ha approfondito il tema del ruolo dei modelli di responsabilità oggettiva. Potrebbe parlarci di quali sono le fonti della responsabilità civile nel caso di danni cagionati dall’uso di sistemi di intelligenza artificiale?

La questione delle fonti della responsabilità civile nel caso di danni cagionati dai sistemi di intelligenza artificiale si rivela più complessa di quanto possa apparire a prima vista. Esclusa la proposta di direttiva sulla responsabilità civile per i danni derivanti dall’utilizzo di sistemi di intelligenza artificiale — proposta che è stata ritirata dalla Commissione europea — ci troviamo oggi di fronte, da un lato, a una fonte di origine europea, ossia la direttiva sul danno da prodotto, con la sua attuale attuazione nel Codice del consumo, e, dall’altro, alla nuova direttiva approvata nel novembre 2024, che deve ancora essere recepita nel nostro ordinamento.
Permane, pertanto, una fonte normativa di derivazione europea; tuttavia, occorre considerare che potranno continuare ad applicarsi, come già avviene in generale per i danni da prodotto, anche le norme nazionali in materia di responsabilità civile.

È noto che la precedente versione della direttiva sul danno da prodotto ha avuto, nella prassi giurisprudenziale, un’applicazione piuttosto limitata. Uno studio della Commissione europea — riferito indicativamente al periodo 2000-2016 — ha rilevato che la direttiva è stata applicata, complessivamente, in circa 800 casi in tutta l’Unione. Nel nostro ordinamento, per esempio, in un numero non trascurabile di ipotesi, quali i danni da prodotto farmaceutico, si è fatto ricorso alla responsabilità per esercizio di attività pericolose ai sensi dell’art. 2050 c.c.

In un mio precedente intervento su questo tema avevo tuttavia richiamato, più che l’art. 2050 c.c., l’applicazione dell’art. 2051 c.c., relativo alla responsabilità per danno da cosa in custodia, nonché dell’art. 2052 c.c., concernente la responsabilità per i danni cagionati da animali. Anche quest’ultima disposizione potrebbe prestarsi a un parallelismo con i robot dotati di autonomia, ad esempio quelli impiegati in ambito medico. L’applicazione dell’art. 2052 c.c., in questo senso, non appare insensata. Si deve considerare, inoltre, che tanto per l’art. 2051 quanto per l’art. 2052, la prova liberatoria è costituita dal caso fortuito; di conseguenza, la distinzione tra le due fattispecie risulta di limitata rilevanza pratica.

È stata, altresì, considerata l’ipotesi dell’applicazione dell’art. 2049 c.c., relativo alla responsabilità dei padroni e dei committenti, disposizione che oggi potremmo riferire ai datori di lavoro, ossia al preponente per i danni cagionati dal preposto. Tuttavia, l’art. 2049 c.c. fa espresso riferimento al fatto illecito del preposto, e dunque presuppone una responsabilità per colpa di quest’ultimo, che si traduce in una responsabilità oggettiva, di natura vicaria, del preponente. Tale impostazione presuppone, evidentemente, che l’agente sia una persona, un soggetto di diritto, poiché altrimenti non si potrebbe parlare di responsabilità per illecito del preposto.

Si potrebbe, in via teorica, considerare il sistema di intelligenza artificiale come un ausiliario o un “preposto” del soggetto che se ne avvale, chiamato a risarcire il danno. In tal caso, anche sul versante contrattuale, il sistema di intelligenza artificiale potrebbe essere qualificato come ausiliario del debitore ex art. 1228 c.c. Mentre l’applicazione diretta dell’art. 2049 c.c. deve ritenersi esclusa per le ragioni considerate, si potrebbe riflettere su una sua applicazione analogica, individuando un’identità di ratio tra la stessa fattispecie regolata dall’art. 2049 c.c. e la lacuna sulla quale ci stiamo concentrando, con l’applicazione del principio cuius commoda eius et incommoda — ossia imputando al preponente le esternalità negative derivanti dall’utilizzo del sistema di intelligenza artificiale, analogamente a quanto avviene per l’attività del preposto.
Non considero, come talvolta sostenuto in dottrina, impossibile o incoerente un’estensione analogica di tale norma: una visione che neghi tale possibilità mi sembra eccessivamente restrittiva. Certo, un’argomentazione in tal senso andrebbe costruita con attenzione, trattandosi di un’interpretazione analogica e non di un’applicazione diretta.

Quanto agli artt. 2051 e 2052 c.c., relativi rispettivamente alla responsabilità da cosa in custodia e per danni cagionati da animali, anche questa prospettiva appare promettente. È stato sostenuto che la nozione di “cosa” contenuta nel codice civile del 1942 non possa essere sovrapposta a quella di sistema “intelligente”, riflettendo una concezione meramente materiale e non sofisticata del bene (della cosa). Tuttavia, tale obiezione appare debole, poiché l’interpretazione giuridica deve sempre adeguarsi all’evoluzione della realtà sociale nella quale rientra, a pieno titolo, l’avanzamento della tecnica.

Le norme del codice civile, specie quelle che definiscono i criteri di imputazione della responsabilità, mirano infatti a fornire modelli astratti e generalizzabili. Se il legislatore del 1942 ha utilizzato il termine “cosa”, è compito dell’interprete attualizzarne la nozione, così da ricomprendere i nuovi ritrovati della tecnologia. Del resto, ciò avviene già in molti altri ambiti: basti pensare all’interpretazione evolutiva della disciplina dei beni nel Libro Terzo del codice civile, adeguata ai c.d. nuovi beni.

In quest’ottica, un’interpretazione “originalista” delle norme codicistiche, ancorata alle intenzioni del legislatore storico, non appare condivisibile. È, invece, necessario leggere tali disposizioni in modo evolutivo e coerente con le trasformazioni della società e della tecnica.

Si può ritenere che si tratti di una responsabilità oggettiva o di una responsabilità per colpa?

Questa è, in un certo senso, la domanda delle cento pistole, poiché tocca il cuore del problema. Abbiamo richiamato, come possibili fonti della responsabilità, da un lato la direttiva — in particolare la più recente, che dovrà essere attuata — in materia di responsabilità del produttore, e, dall’altro, le ipotesi previste dagli artt. 2050 (attività pericolose), 2051 (cose in custodia), 2052 (danni cagionati da animali) e 2049 c.c. (responsabilità del preponente per gli illeciti del preposto).

Queste ipotesi sono, naturalmente, tra loro differenti, ma proprio tale diversità è utile per comprendere meglio le diverse logiche di imputazione della responsabilità. Se guardiamo alla norma classica sulla responsabilità vicaria — che nel nostro ordinamento si applica stabilmente per gli illeciti commessi dai lavoratori — il preponente (cioè il datore di lavoro o, nel nostro caso, l’utilizzatore del sistema di intelligenza artificiale) non dispone di una prova liberatoria: la norma, infatti, non la prevede.
In tale contesto, la strategia difensiva può consistere soltanto nella prova dell’insussistenza del nesso di causalità tra il danno lamentato dall’attore e il comportamento (l’output) che, nel caso di specie, non è del preposto, ma del sistema di intelligenza artificiale. Si tratterebbe, dunque, di una vera e propria ipotesi di responsabilità oggettiva.

Nel caso dell’art. 2050 c.c., relativo alle attività pericolose, non ritengo necessario soffermarsi eccessivamente sulla questione se l’utilizzo di un sistema di intelligenza artificiale possa o meno qualificarsi come tale: si tratta, a mio avviso, di un problema più terminologico che sostanziale. Ciò che rileva è individuare il modello normativo più adeguato a regolare questa nuova realtà tecnologica. L’art. 2050 c.c. prevede come prova liberatoria l’aver adottato tutte le misure idonee a evitare il danno. Ed è proprio sul significato di “tutte le misure idonee” che occorre soffermarsi. In questo ambito assumono crescente rilievo le normative di safety e security introdotte a livello dell’Unione europea, che costituiscono la base per l’autorizzazione preventiva alla commercializzazione dei prodotti. Si tratta, com’è noto, di discipline particolarmente rigorose, spesso più severe di quelle vigenti in altri ordinamenti giuridici.
In questo contesto, la responsabilità delineata dall’art. 2050 c.c. può essere più correttamente qualificata come responsabilità per colpa presunta (o semi-oggettiva come sostiene Francesco Busnelli), poiché l’onere della prova è invertito: spetta al convenuto dimostrare di aver adottato tutte le misure idonee a evitare il danno.

Si può, inoltre, ritenere che non gravi sul convenuto il cosiddetto rischio da sviluppo, richiamando la prova liberatoria tipica della disciplina sul danno da prodotto. In tal senso, le misure idonee a evitare il danno devono intendersi non come quelle conosciute ed esigibili al momento in cui il danno si è verificato ma al momento della messa in commercio del prodotto; includendo, però, nella sfera di responsabilità dell’utilizzatore – l’esercente l’attività pericolosa – gli aggiornamenti software successivi, purché il loro mancato impiego abbia concretamente contribuito al verificarsi del danno (cioè se il danno fosse stato evitabile da parte della condotta alternativa lecita, tipico argomento della imputazione della responsabilità per colpa).

Passando agli artt. 2051 e 2052 c.c., relativi rispettivamente alla responsabilità per cose in custodia e per danni cagionati da animali, la prova liberatoria prevista è quella del caso fortuito. Non è possibile, in questa sede, entrare nel dettaglio della nozione di caso fortuito — tema che ho approfondito altrove, nel mio studio sulla causalità civile — ma, in generale, la responsabilità oggettiva non si distingue solo negativamente dalla responsabilità per colpa. È necessario definirla anche in positivo, individuando un criterio alternativo alla colpa che delimiti le diverse aree di rischio: il rischio a carico del custode e quello, invece, che rimane in capo al danneggiato.

In questa prospettiva, le normative di sicurezza potrebbero assumere un ruolo determinante anche nel definire la condizione della cosa — qui intesa come sistema di intelligenza artificiale — e la relazione eziologica fra tale condizione e l’evento dannoso.

Giungendo alla direttiva sul danno da prodotto, la nuova versione è particolarmente interessante perché introduce una serie di meccanismi presuntivi. Essa non modifica in modo sostanziale le regole generali di responsabilità, che restano fondate sulla prova del difetto, del danno e del nesso causale tra difetto e danno, ma introduce l’obbligo di disclosure di informazioni tecniche relative al prodotto, informazioni che il danneggiato difficilmente può avere e che risultano, invece, necessarie per dimostrare il difetto e il nesso di causalità.
Inoltre, la direttiva prevede presunzioni anche in relazione al nesso causale. Peraltro, una presunzione sul difetto finisce, spesso, per tradursi in una presunzione di colpa.

Pertanto, rispondere in modo univoco alla domanda se si tratti di responsabilità per colpa o responsabilità oggettiva non è semplice. Non ci troviamo certamente nell’ambito dell’art. 2043 c.c. — la norma generale sulla responsabilità aquiliana, che richiede la prova della condotta dolosa o colposa, del danno ingiusto e del nesso causale tra l’una e l’altro — ma è altrettanto difficile individuare un criterio distinto dalla colpa.
Si può dunque parlare, con maggiore precisione, di una responsabilità semi-oggettiva, o, se si preferisce, di una responsabilità per colpa aggravata — aggravata in misura significativa, talvolta anche presunta, in virtù dei meccanismi probatori agevolati introdotti dalla nuova direttiva.

Solo nel caso di applicazione dell’art. 2049 c.c. — la responsabilità vicaria — potremmo forse parlare di una vera e propria responsabilità oggettiva: in tal caso, infatti, l’utilizzatore del sistema intelligente risponde salvo che riesca a escludere il nesso di causalità. Sarebbe, più precisamente, una responsabilità per pura causalità, concetto conosciuto nel nostro ordinamento essenzialmente solo in relazione all’utilizzo dell’energia atomica.

Nei Suoi scritti, Profili giuridici dell’utilizzo della robotica e dell’intelligenza artificiale in medicina e La responsabilità civile per danni cagionati da sistemi di intelligenza artificiale nel prisma dell’onere della prova, ha messo in luce come l’opacità dei sistemi di intelligenza artificiale renda complesso accertare il nesso causale tra l’algoritmo e il danno subito. Ritiene che l’introduzione di obblighi di trasparenza algoritmica o di tracciabilità delle decisioni automatizzate possa realmente agevolare l’assolvimento dell’onere della prova da parte del danneggiato, o si tratta di una tutela meramente teorica?

Il rischio che la tutela si riveli meramente teorica esiste, poiché — come è stato condivisibilmente osservato in dottrina — anche gli obblighi di disclosure previsti nella nuova direttiva sul danno da prodotto (la cosiddetta Product Liability Directive) e già presenti nella proposta di direttiva sulla responsabilità per l’intelligenza artificiale, poi ritirata, presentano alcune criticità applicative.
In particolare, ci si è chiesti che cosa accada nell’ipotesi in cui il produttore — o più in generale il fornitore o l’utilizzatore del prodotto — chiamato in giudizio e tenuto alla disclosure informativa e documentale, inondi la controparte di un’enorme quantità di informazioni tecniche, spesso di difficile comprensione e tali da richiedere, per essere interpretate, il supporto di consulenti tecnici di parte altamente specializzati, con conseguenti costi elevati per il danneggiato.

In questo contesto si comprende la funzione dei meccanismi presuntivi introdotti dalla direttiva. Sarebbe inesatto affermare che essa li applichi tout court, poiché tali presunzioni operano solo al ricorrere di determinati presupposti, riconducibili essenzialmente a tre ipotesi:

  1. la mancata disclosure da parte del convenuto;
  2. il mancato rispetto dei requisiti di sicurezza del prodotto;
  3. la dimostrazione, da parte dell’attore, di una sorta di fumus boni iuris sulla sussistenza del nesso di causalità, ossia della plausibilità che il danno derivi dal prodotto.

Si deve segnalare, peraltro, anche l’interessante presunzione del nesso di causalità tra il difetto e il danno, che corrisponde sostanzialmente a una presunzione della causalità della colpa (per usare il linguaggio dei penalisti), che seppure in termini differenti, ma con identica sostanza, si ritrovava anche nella proposta di direttiva sulla responsabilità da intelligenza artificiale poi ritirata dalla Commissione.

In tali circostanze, la direttiva consente di presumere l’esistenza del difetto e il nesso eziologico tra difetto e danno spostando, conseguentemente, l’onere della prova sul produttore, che dovrà dimostrare l’assenza del nesso causale. Ciò rappresenta una significativa inversione rispetto all’impostazione generale della responsabilità da prodotto, che pone invece a carico del danneggiato la prova del difetto, del danno e del nesso causale tra i due.
Questa soluzione, proprio in ragione dell’opacità informativa che spesso caratterizza i prodotti ad alta complessità tecnologica — come quelli basati su sistemi di intelligenza artificiale — appare tutt’altro che irragionevole e potrebbe trovare una più definita concretizzazione nella futura applicazione giurisprudenziale della disciplina attuativa della direttiva.

Vi è, poi, una questione più ampia, di politica del diritto, connessa al timore che l’Unione europea, nel suo intento di regolamentare in modo rigoroso la materia, finisca per eccedere nell’iper-regolamentazione, scoraggiando di fatto lo sviluppo tecnologico nel continente. Tale critica — rivolta all’Unione anche in sede internazionale, in particolare dagli Stati Uniti — non è priva di fondamento e impone di trovare un equilibrio fra tutela dei diritti e promozione dell’innovazione.

A mio avviso, in questo equilibrio sarà decisivo il ruolo del giudice. Infatti, la previsione dell’obbligo di disclosure è accompagnata, nella direttiva, da una valutazione preliminare di plausibilità della pretesa risarcitoria: una sorta di fumus boni iuris, istituto che il nostro ordinamento conosce bene in quanto presupposto per la concessione delle misure cautelari.
L’accertamento di tale plausibilità — che vedrà, certamente, l’apporto dei consulenti tecnici — rappresenta un filtro preventivo fondamentale per evitare abusi processuali e per mantenere l’equilibrio fra effettività della tutela e sostenibilità della regolazione.
Si tratta, evidentemente, di giudizi complessi, ma necessari affinché il sistema di responsabilità civile in materia di intelligenza artificiale possa funzionare in modo efficace e proporzionato.

Ha richiamato la necessità di un equilibrio tra l’innovazione tecnologica e la tutela dei principi fondamentali dello Stato di diritto. Come immagina, Professore, un modello giuridico “sostenibile” per l’intelligenza artificiale, capace cioè di garantire responsabilità, trasparenza e, al tempo stesso, valorizzare le potenzialità della tecnologia?

Come noto, l’AI Act adotta il principio di neutralità tecnologica, distinguendo tra utilizzi vietati, utilizzi ad alto rischio e utilizzi a basso rischio. È, inoltre, prevista un’esenzione per i sistemi impiegati in ambito militare o di sicurezza, ai quali il regolamento europeo non si applica.

Occorre tuttavia formulare una precisazione sul presupposto stesso dell’AI Act, ossia la neutralità tecnologica. Una regolamentazione più calibrata sulle specifiche tipologie di tecnologia potrebbe, infatti, risultare più efficace, a condizione che essa venga costantemente aggiornata. In tal senso, si potrebbe prevedere un sistema normativo che rinvii a fonti secondarie, anche di livello nazionale o europeo, affidando ad autorità amministrative specializzate il compito di intervenire periodicamente per adeguare la disciplina al progresso tecnico.

La questione dei principi fondamentali è, tuttavia, ancora più complessa. Parlare di responsabilità civile significa, in ultima analisi, occuparsi della tutela dei diritti fondamentali: molti dei danni che potranno derivare dall’impiego di sistemi di intelligenza artificiale incideranno, infatti, su tali diritti. Penso, in primo luogo, al diritto alla salute.

Da questo punto di vista, ritengo fondamentale il public enforcement, accanto — e non in sostituzione — al private enforcement. La tutela risarcitoria a valle, una volta verificatosi il danno, deve certamente essere effettiva, ma è necessario prevedere anche forme di prevenzione e controllo a monte. Occorre, cioè, un sistema di enforcement pubblico strutturato e rigoroso, capace di valutare attentamente l’immissione sul mercato di prodotti basati su sistemi di intelligenza artificiale. Si tratta di un compito complesso, poiché bisogna contemperare l’esigenza della tutela dei diritti con quella di non scoraggiare lo sviluppo tecnologico.

Tuttavia, le nostre Carte dei diritti — la Carta dei diritti fondamentali dell’Unione europea, la Costituzione italiana e gli strumenti normativi equivalenti degli altri Stati membri — pongono la persona al centro dell’ordinamento giuridico. È dunque ai diritti fondamentali che occorre guardare, anche accettando, se necessario, un ritmo di sviluppo tecnologico più lento ma rispettoso dei valori costituzionali.

Va, inoltre, considerato che una diffidenza sociale crescente verso l’intelligenza artificiale potrebbe tradursi in movimenti di opinione – diciamo luddisti – contrari alla sua diffusione, con conseguenze politiche rilevanti. L’esperienza recente delle campagne vaccinali ha mostrato come la mancanza di fiducia possa incidere profondamente sul tessuto sociale e influenzare la rappresentanza e la rappresentazione politica.

Esistono, poi, ulteriori implicazioni, forse ancor più rilevanti, per la tenuta democratica delle nostre società. In questo ambito interviene in particolare il Digital Services Act, che disciplina la libertà di espressione e la manifestazione del pensiero sulle piattaforme digitali. È necessario riflettere su come l’uso degli algoritmi — che misurano e, al tempo stesso, plasmano le preferenze individuali — possa influenzare la formazione dell’opinione pubblica attraverso meccanismi sottili di profilazione e di esposizione selettiva di contenuti.

Tali processi determinano fenomeni di radicalizzazione, che stanno contribuendo alla crescente polarizzazione delle società contemporanee, sia negli Stati Uniti sia, in misura diversa, anche in Europa. In questo senso, il tema è quello del “quarto potere” dell’informazione, oggi rappresentato dai grandi conglomerati tecnologici che controllano le principali piattaforme digitali: le nuove “sette sorelle” della contemporaneità.

A differenza dei grandi gruppi economici del passato, che pur esercitavano un’influenza sull’opinione pubblica ma la esplicavano attraverso strumenti riconoscibili, le piattaforme digitali non si limitano a diffondere opinioni: esse formano direttamente le opinioni degli utenti, influenzando in modo pervasivo i processi cognitivi e decisionali.

Alla luce della posta in gioco — ossia la tenuta stessa delle nostre democrazie — è indispensabile un intervento incisivo del potere pubblico e, in particolare, del legislatore. Si tratta di un compito estremamente delicato: non si tratta di imporre “verità di Stato”, ma di individuare strumenti seri e proporzionati che consentano di preservare la libertà di espressione senza sacrificare la qualità del dibattito democratico.

 

 

 

 

Back To Top