skip to Main Content

Intervista alla Prof.ssa Lucia Risicato. La responsabilità del produttore e dell’utilizzatore dei sistemi di intelligenza artificiale

Lucia Risicato è professore ordinario di diritto penale presso il Dipartimento di Giurisprudenza dell’Università di Messina. È oggi affidataria dei corsi di diritto penale (parte generale) e criminologia e garante cittadina dei diritti dei detenuti. Autrice di oltre cento pubblicazioni, di cui sei a carattere monografico, la sua attività scientifica spazia dai territori delle forme di manifestazione del reato agli elementi normativi di fattispecie, senza trascurare il sistema sanzionatorio, il biodiritto e i più significativi ambiti applicativi dell’illecito colposo monosoggettivo e concorsuale.

 

la Prof.ssa Lucia Risicato

 

Nel Suo intervento, curato per l’evento del 13 settembre u.s. Verso un diritto dell’intelligenza artificiale lezioni apprese e sfide future, parla di limiti dell’indagine penalistica riguardo l’intelligenza artificiale, sottolineando che, al momento, la responsabilità resta umana. In quali casi vede emergere una possibile distorsione delle categorie penalistiche esistenti quando si applicano all’uso dell’IA?

A mio avviso, il diritto penale deve preoccuparsi dei rischi legati alla produzione e all’uso dell’IA senza dimenticare che fino ad ora esse sono sempre riconducibili all’attività umana – non essendo ancora state create macchine dotate di coscienza ed emozioni autonome – e non potranno creare per produttore ed utilizzatore zone franche nelle c.d. attività “a rischio consentito”. Il rischio tecnologico tocca però punti nevralgici della parte generale del diritto penale: dal nesso eziologico fino alla ricostruzione della tipologia di colpa (monosoggettiva e concorsuale) e dei limiti del dovere di diligenza, senza trascurare la responsabilità per omesso impedimento dell’evento e quella per danno da prodotto. Dobbiamo quindi chiederci se e fino a che punto la dilatazione e, in alcuni casi, la distorsione delle categorie penalistiche, in special modo delle clausole generali di incriminazione suppletiva, non implichi la metamorfosi del diritto penale “classico” a vantaggio di uno spiacevole diritto penale “ingiunzionale”, preventivo e mitridatizzato rispetto alle istanze di colpevolezza per il fatto.

 

Responsabilità del produttore, quali sono le principali differenze, in ambito penalistico, tra la responsabilità civile e quella penale del produttore di sistemi di intelligenza artificiale, specialmente in relazione al danno da prodotto?

In ambito civilistico, il produttore o, in subordine, il fornitore, è direttamente responsabile del danno causato da prodotti difettosi. In ambito penalistico, il danno da sistema di IA “difettoso” o inaffidabile rischia due eventualità opposte e al contempo inquietanti: può infatti assumere le caratteristiche del danno anonimo o, per converso, coinvolgere una catena di soggetti diversi in una dilatazione progressiva delle responsabilità (attive ed omissive). Si è detto efficacemente, a riguardo, che nella sua declinazione post-moderna il danno da prodotto sia, innanzitutto un danno diffusivo. Ciò non solo in ragione della sua capacità di ripercuotersi – attraverso la messa in circolazione del prodotto stesso – su una platea indefinita di vittime, senza incontrare alcun tipo di limitazione spazio-temporale, ma anche in virtù della sua attitudine a propagarsi, in maniera capillare, all’interno della stessa catena produttiva e distributiva.

 

Ha parlato delle difficoltà nell’accertare il nesso causale. Quali sono, secondo Lei, i principali ostacoli a livello tecnico e giuridico che rendono complesso l’accertamento del nesso causale in un contesto dove la decisione o l’azione è mediata dall’IA?

Nelle ipotesi di danno da prodotto, l’accertamento del nesso causale è complicato dalla mancanza di leggi generali consolidate di copertura, dalla presenza di fattori causali concomitanti (umani o meno) della natura più diversa e dalla circostanza – tutt’altro che irrilevante – che il danno da prodotto possa palesarsi a distanza anche notevole di tempo dal momento dell’immissione del prodotto stesso sul mercato. La sussistenza di un periodo di latenza tra l’esposizione del soggetto danneggiato al prodotto pericoloso e la materiale verificazione dell’evento è poi suscettibile di provocare da un lato, l’insorgenza di cause cumulative rispetto alla determinazione del danno e di consentire, dall’altro, al produttore di difendersi facendo valere decorsi causali alternativi. In più, l’attitudine evolutivo/adattativa dei moderni sistemi di IA ne implica – come è stato di recente sostenuto – una possibile soggettivizzazione, in ragione della quale il prodotto specifico può diventare nel funzionamento o negli esiti assai diverso da quello in origine immesso sul mercato. Ma la difficoltà più consistente, ammesso e non concesso che sia possibile stabilire in modo incontrovertibile il nesso causale tra l’immissione del prodotto sul mercato e il danno materiale, è capire chi sia materialmente l’autore del fatto: il programmatore, ovvero l’autore dell’algoritmo di autoapprendimento, il trainer, ossia il soggetto preposto a consentire alla macchina di imparare dall’esperienza, o non piuttosto il soggetto che ha materialmente fornito i dati alla macchina per farla funzionare? Oltretutto, appare arduo considerare il successivo comportamento “intelligente” dell’IA alla stregua di fattore causale sopravvenuto ex 41, comma 2, c.p., considerata l’oggettiva difficoltà di riconoscere in sé al “fattore robotico” valenza interruttiva della catena causale tra il fatto del produttore e l’evento.

 

Quali criteri suggerirebbe per evitare il rischio di una proliferazione incontrollata di responsabilità nei contesti complessi, dove operano molteplici attori e sistemi di IA, mantenendo comunque una chiara individuazione delle colpe?

L’individuazione del o dei soggetti responsabili è delicatissima. Anche nel settore delle intelligenze artificiali, alla frammentazione tipica del processo produttivo si affianca una parcellizzazione dei processi decisionali di formazione della volontà, che nel caso specifico coinvolge non solo il produttore o il distributore, ma tutti i soggetti coinvolti dalla nascita alla programmazione, fino all’uso del sistema di IA. Sono certamente sconsigliabili approcci radicali, volti ad individuare la responsabilità ora (solo) nei vertici aziendali, ora invece nel soggetto fisico cui è materialmente attribuito lo svolgimento di una particolare mansione. In ambito civilistico si è paventata la possibilità di ricostruire una responsabilità solidale e multipla in capo a ciascuno dei soggetti che concorrono alla creazione e allo sviluppo dell’IA. In ambito penalistico, siffatta specie di responsabilità plurisoggettiva dovrebbe invece essere adottata con estrema cautela, poiché implica l’inevitabile emersione del rischio di anonimia del danno. Tesi recenti propongono di adattare la sfera del rischio consentito ai contenuti propri dell’intelligenza artificiale. Mutuando un orientamento nato sul terreno della responsabilità civile, si potrebbe ad es. individuare nella fase di training del prodotto il momento cruciale per definirne la potenziale pericolosità. Collocando in questa fase specifica la definizione dello spettro di prevedibilità del danno, la successiva commercializzazione del prodotto da parte dei vertici aziendali potrebbe determinare una responsabilità legata alla consapevole immissione nel mercato di un manufatto non assistito da adeguate cautele sulla sicurezza nell’utilizzo. L’individuazione dei soggetti responsabili si gioca così sul delicato crinale che separa il principio di affidamento da una cooperazione colposa la cui efficacia incriminatrice è incentrata, secondo recente dottrina, sulla violazione di regole cautelari “relazionali” di vigilanza e controllo tipiche delle attività organizzative complesse. Con tutto ciò che ne deriva sul piano dell’estensione orizzontale e verticale dei soggetti responsabili.

 

Riguardo la responsabilità del supervisore o dell’utilizzatore, come immagina si possano evolvere gli obblighi di garanzia in relazione ai sistemi di IA, specialmente in settori critici come i trasporti?

Appare più che mai necessario selezionare gli obblighi di garanzia, che al momento assai raramente discendono dalla legge e molto più spesso dal contratto o dalla c.d. precedente attività pericolosa. L’utilizzatore del sistema intelligente, infatti, introdurrebbe fra i consociati una fonte di rischio prima inesistente, così assumendosi la responsabilità per il mancato impedimento dei danni cagionati dal sistema medesimo. Sullo sfondo resta il dibattito, tipico della responsabilità per la circolazione stradale (anche automatizzata), sulla configurabilità generale di una posizione “mista”, di protezione e di controllo, in capo al conducente di qualsiasi veicolo, volta ad impedire eventi lesivi a danno di terzi. Occorre quindi delineare tipo, contenuti e limiti dell’obbligo di garanzia. Secondo gli studi più recenti, in questo tipo di posizioni di garanzia il profilo del controllo tende a prevalere su quello della protezione del terzo dei rischi da uso di macchinario “intelligente”. Le peculiarità della materia che stiamo trattando si impongono ancora una volta: l’impiego dei sistemi intelligenti da parte di supervisori o utilizzatori richiede, infatti, un serio processo di alfabetizzazione per poter riconoscere il momento in cui è necessario intervenire per evitare che il sistema intelligente causi un danno. Questo dato attiene all’ineliminabile lato intellettuale della capacità d’agire, la quale comprende tutti quei prerequisiti intellettuali che rendono possibile la pianificazione e la realizzazione di una condotta impeditiva. Non si potrebbe, infatti, rimproverare al conducente di un veicolo autonomo di non aver impedito l’incidente, se il malfunzionamento della macchina non era da lui riconoscibile e, pertanto, tempestivamente fronteggiabile. Ciò, del resto, spinge parte della letteratura penalistica più recente a coniare un agente modello dotato di conoscenze rispondenti alla miglior scienza ed esperienza del settore e a richiedere, de iure condendo, uno specifico titolo abilitativo in capo all’utilizzatore come soluzione alla discrepanza tra potere e dovere di riconoscere le situazioni di pericolo. Sono i limiti di un obbligo di garanzia così faticosamente tratteggiato a rappresentare, però, l’elemento più preoccupante: il rischio, tutt’altro che infrequente nella prassi giurisprudenziale (si pensi al tema della colpa medica di équipe), di trasformare la posizione di garanzia in una sorta di responsabilità per posizione è nei fatti.

Back To Top