skip to Main Content

Intervista al Prof. Preziosi: le implicazioni del diritto penale nell’era dell’Intelligenza Artificiale

Nell’intervista con il Prof. Stefano Preziosi, Professore Ordinario di Diritto Penale presso l’Università degli Studi di Roma “Tor Vergata” (Dipartimento di Giurisprudenza) e Coordinatore scientifico del. Centro di Ricerca su Intelligenza Artificiale e Diritto (C.R.I.A.D.) dell’Università di Tor Vergata, esploreremo il rapporto tra diritto penale e Intelligenza Artificiale (IA). Discuteremo delle sfide e delle opportunità legate all’applicazione della legislazione esistente alle nuove pratiche vietate dalla normativa europea sull’IA. Esamineremo in che modo i modelli di gestione del rischio informatico possono influenzare la responsabilità penale e analizzeremo il significato normativo dell’articolo 22 del Regolamento Generale sulla Protezione dei Dati Personali.

 

Quali sono le principali pratiche vietate dalla nuova legislazione europea sull’IA, e in che misura queste possono essere considerate fattispecie di reato in base alla legislazione vigente?

Premesso che ancora non è stato completato l’iter approvativo della Legge europea sull’Intelligenza Artificiale (AI Act) e che, pertanto, si può ragionare ancora soltanto in termini generali, bisogna innanzitutto chiedersi se le pratiche vietate, che consisteranno nella produzione, messa sul mercato, utilizzazione o altro, di sistemi di IA vietati, possano avere rilevanza penale.

Occorre, però, distinguere.

In primo luogo, parliamo di “sistemi” vietati, oppure di un uso vietato di taluni sistemi? Ad esempio, l’identificazione biometrica a distanza può essere in tempo reale o non in tempo reale: una di queste due modalità potrebbe essere consentita (entro limiti ben determinati), l’altra no, se non in casi molto circoscritti (quando sia necessaria per identificare l’autore di un reato e, verosimilmente, in chiave di attività di polizia giudiziaria o investigativa, in base ad un provvedimento dell’autorità giudiziaria). In tal caso sarebbe vietato il sistema o un suo specifico uso?

Verosimilmente la legislazione europea non introdurrà dei sistemi assolutamente vietati, ma dei limiti alla loro utilizzazione. Sarà la funzione ad essere vietata, soprattutto in relazione a specifici presupposti di esercizio, ma difficilmente la legge potrà vietare un “sistema”, poiché questo significherebbe vietare la realizzazione di un prodotto tecnologico-scientifico e non penso che ciò sia possibile né che sia intenzione del legislatore europeo farlo.

In secondo luogo, anche sul versante dei divieti che colpiranno determinati impieghi dell’IA, questi difficilmente potranno declinarsi come divieti assoluti. Probabilmente il significato di “sistemi vietati” dovrà essere inteso come funzioni dell’IA. Probabilmente si potrà concepire anche il divieto di un software di IA, quindi di un’entità immateriale che opera secondo una determinata programmazione che risponda ai divieti introdotti dalla legislazione europea; questo penso sia possibile. Ma al fondo dovremo anche chiederci cosa debba intendersi per sistema di IA: la proposta di regolamento dell’IA della Commissione definiva il sistema di intelligenza artificiale nel seguente modo: <<un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono>> (art. 3). L’illiceità, dunque, potrà focalizzarsi sulla funzione, non potendo la norma giuridica fissare i requisiti di un sistema che in quanto tale possa essere vietato.

Così, ancora per fare un esempio, probabilmente saranno vietati i sistemi di categorizzazione delle persone fisiche sulla base dei loro dati biometrici per dedurne dati personali sensibili, ma ove i dati biometrici siano acquisiti legalmente e riguardino insiemi di dati e non dati individuali, questo divieto, verosimilmente, non vi sarà.

Terzo. Quando pensiamo a condotte penalmente rilevanti, immaginiamo quello che succede nella “macchina” o una condotta umana che abbia dato luogo, o abbia concorso a dar luogo, a quello che avviene dentro la macchina? La differenza non è di poco conto e il legislatore dovrebbe esserne ben avvertito. Se si pensasse a divieti presidiati da sanzioni penali o parapenali riferiti alla macchina, ossia, per quanto si è detto, alla funzione operata da un software, per esempio ad un sistema di apprendimento profondo (deep learning) di cui sia capace il software, in quanto operi in contrasto con un divieto, allora per individuare la responsabilità penale dovremmo chiederci quali criteri di imputazione utilizzare ed eventualmente se si debbano individuare dei soggetti qualificati (progettista, operatore, utilizzatore, etc.) come destinatari della norma di divieto. I problemi principali, a tal riguardo, sarebbero rappresentati dalla individuazione del nesso eziologico fra una condotta umana e il risultato funzionale o l’output del sistema (non sono la stessa cosa, ovviamente) e dalla ricostruzione del criterio di imputazione (soggettiva).

In alternativa dovremmo pensare a delle fattispecie di illecito che tipizzino le condotte umane in relazione ai sistemi di IA: ad esempio la progettazione di algoritmi che si prestino ad un risultato funzionale vietato e che generino o possano generare output vietati o dannosi.

Si tratta di prospettive molto diverse fra loro.

Quarto. Occorrerà verificare se l’impiego di sistemi vietati non sia già in qualche modo sussumibile in fattispecie penali vigenti ed eventualmente quali. Ad esempio, un sistema di IA può “realizzare” la condotta punita dall’art. 612 bis c.p. quando, con l’impiego di esso in modo reiterato, venga costretto taluno ad alterare le proprie abitudini di vita? Oppure, la captazione di parole o discorsi attinenti alla vita privata all’interno del domicilio da parte di un sistema di IA, può integrare sul piano oggettivo la fattispecie di Interferenze illecite nella vita privata prevista dall’art. 615 bis c.p.?

Occorrerà una riflessione molto seria, sia per non svuotare norme di tutela che le nuove tecnologie potrebbero aggirare, ma, d’altra parte (e soprattutto), per evitare che in sede applicativa possa pervenirsi ad applicazioni sostanzialmente analogiche di norme incriminatrici, che è quanto di peggio possa avvenire.     

 

Considerando l’evoluzione normativa nell’ambito dell’IA, ritiene che il legislatore sia tenuto o abbia la possibilità di introdurre nuove fattispecie di reato per punire pratiche non ancora contemplate nei paradigmi normativi esistenti?

Credo che una questione estremamente delicata sia rappresentata dalla possibilità (o necessità) di prevedere un’area di rischio totalmente illecito nell’impiego di sistemi di IA. Tracciare una linea di demarcazione fra creazione di rischi totalmente illeciti e aree di rischio non radicalmente illecite ma all’interno delle quali possono realizzarsi eventi dannosi, mi sembra molto importante. L’area del rischio totalmente illecito definisce, nel diritto penale, l’area del reato doloso. Gli illeciti che vengono realizzati, invece, in aree di rischio non totalmente illecito e che consistono nel superamento del rischio consentito, definiscono lo spazio del reato colposo.

Questo è di grande rilievo per evitare “avventure” interpretative e giurisprudenziali in cui si trascorra con estrema disinvoltura dal reato doloso a quello colposo e in cui, soprattutto, il reato doloso divenga niente altro che un reato colposo sotto mentite spoglie.

Il legislatore penale dovrebbe definire un’area di rischio totalmente illecito, in cui rientrano condotte assolutamente vietate, rispetto alle quali l’ordinamento non tollera rischi in nessuna misura e si risponde per dolo, rispettando i principi che governano il reato doloso, che è effettiva volizione e rappresentazione di un fatto preveduto dalla legge come reato e delle sue conseguenze dannose.

D’altra parte, invece, dovrebbe definire normativamente, rinviando anche a fonti diverse dalla legge, un’area di rischio permesso, rispetto alla quale non può configurarsi la responsabilità penale – eventualmente potranno sorgere altri tipi di responsabilità, soprattutto (ma non solo) civile.  E’ inevitabile, infatti, che l’IA generi dei rischi e non ci si può illudere che essi vengano totalmente neutralizzati. Questa “illusione” – molto pericolosa, a mio avviso – sembra allignare nella legislazione europea; la sua matrice ideologica è un malinteso, estremistico “solidarismo”, per cui ogni conseguenza dannosa deve necessariamente generare una responsabilità. Se tale idea può essere accettabile in altre branche dell’ordinamento, per un’esigenza di socializzazione dei rischi prodotti dalla tecnica, non dovrebbe albergare, invece, nel penale, dove si afferma una responsabilità colpevole (non per il rischio) e la norma ha una funzione preventiva rispetto a fatti/eventi vietati (reato doloso) o rispetto a eventi che devono essere evitati adottando determinate precauzioni (reato colposo), ma non rispetto a eventi che si producono, in un’area di rischio non illecito, pur nel rispetto delle precauzioni prestabilite, poiché tali eventi rientrano nel rischio permesso.

Una volta che il regolamento europeo sarà definitivamente adottato ed entrato in vigore, sarei favorevole allo studio della possibilità di un intervento del legislatore nel Codice penale, volto a definire, in linea generale, i presupposti dell’imputazione riguardo a fatti illeciti generati per mezzo dell’IA.

Lo schema di riferimento potrebbe essere dato dalla disciplina del concorso di persone nel reato, applicata, però secondo criteri rigorosamente garantistici. L’area del rischio totalmente illecito potrebbe definirsi in relazione a condotte realizzate con la previsione e volizione dell’evento dannoso, ossia on la consapevolezza e la volontà che con la propria condotta si contribuisce alla realizzazione di un fatto illecito, ossia di un evento/risultato lesivo contemplato dalla legge come assolutamente vietato. Così, ad esempio, la condotta di un programmatore di algoritmi informatici con cui venga realizzato un software di IA sapendo e volendo che esso realizzerà un sistema vietato dall’ordinamento. Con ciò dovrebbero essere precluse forme di responsabilità ricalcate sul concorso anomalo (escludendosi espressamente l’applicazione dell’art. 116 c.p.) o, peggio ancora, basate sulla conseguenza probabile ma non voluta. Nel quadro di riferimento del concorso di persone il sistema di IA dovrebbe essere considerato quale autore materiale del reato: aspetto questo innovativo che richiederebbe un intervento legislativo in chiave di parte generale.

Non sarebbero da escludere anche ipotesi di responsabilità colposa, purché queste siano saldamente agganciate al mancato rispetto di regole tecniche e non alla responsabilità per il rischio.

 

Come possono i modelli di gestione del rischio informatico e algoritmico influenzare la determinazione della responsabilità penale? Esiste la possibilità che tali modelli diventino parametri chiave nella valutazione della colpevolezza?

La deriva da evitare, in sede penale, è l’affermazione del “principio” – chiamiamolo così – della competenza per la gestione del rischio, ricavato, magari, come ha fatto recentemente la Cassazione nella vicenda del disastro della stazione di Viareggio, dalla disciplina (civilistica) dei gruppi societari e, in particolare, dai poteri e dalla responsabilità disegnata dal Codice civile in materia di direzione e coordinamento delle società ai sensi degli artt. 2497 ss.

In questo modo si genera una totale confusione e sovrapposizione di istituti e principi della materia penale. In cui non dovrebbe proprio esistere una responsabilità fondata sulla competenza per la gestione del rischio, poiché una simile responsabilità non solo è contraria ai principi generali e costituzionali della materia, ma non è nemmeno prevista dalla legge.

Altro nodo fondamentale è rappresentato, a mio avviso, dalla necessità di definire normativamente e per legge il contenuto di una posizione di garanzia che abbia ad oggetto, quale fonte di rischio, un sistema di IA. Si dirà a questo proposito che la clausola generale dell’art. 40, cpv., c.p. non è definita dal legislatore in relazione ad una specifica fonte di rischio. Ed è vero, ma l’obiezione non coglierebbe nel segno.

Tale clausola, infatti, rappresenta indubbiamente un nervo scoperto del sistema penale e non è chi non veda che essa ha generato una bulimia penalistica produttiva di molti guasti nella giustizia penale e nel tessuto sociale ed economico. Dunque, l’occasione dell’IA potrebbe essere preziosa per ripensarla, seppure in funzione di una fonte specifica di rischio. Ma non solo, le peculiarità dell’IA e la portata epocale della sua affermazione e diffusione, imporrebbero una chiara presa di posizione del legislatore, se si vuole evitare la nascita di un conflitto permanente e oltremodo dannoso fra tecnica e giustizia.

Il pericolo maggiore, nella materia penale, è che l’innovazione tecnologica porti ad una totale normativizzazione della colpevolezza, dove dolo e colpa si confondono e l’unico metro di valutazione dei fatti diviene la previsione (giudiziaria) dei rischi. Ma il criterio della previsione dei rischi ex ante non è un criterio di imputazione giuridica. La previsione dei rischi e la sua funzione predittiva devono servire a valutare la misura dei rischi consentiti e non consentiti, onde lasciare, da un lato, zone di libertà di azione pur ammettendo che un evento lesivo possa verificarsi e, dall’altro, aree di rischio non consentito, in cui si deve rispondere perché sono stati prodotti eventi che potevano essere evitati usando le precauzioni imposte dall’ordinamento al momento della condotta. Solo così la tecnica e la scienza possono coesistere con la giustizia e il diritto, altrimenti è una guerra di trincea.

 

Qual è il significato normativo dell’articolo 22 del Regolamento Generale sulla Protezione dei Dati Personali, in relazione al diritto di non essere sottoposti a decisioni basate unicamente su trattamenti automatizzati, e come questo impatta sulla responsabilità penale nel contesto dell’IA?

La “riserva di umanità” è un tema molto complesso, che è già stato affrontato in diversi settori, soprattutto nel diritto amministrativo, ma che riguarda tutti i campi del diritto e non solo il diritto, ma anche l’etica, la filosofia, la scienza.

In materia penale si deve rifuggire dalla tentazione di individuare il male radicale nella black box algoritmica. “Leggere” i sistemi di IA, come ormai tutti sanno, non è possibile e lo sarà sempre meno. La tentazione potrebbe essere quella di ravvisare il contenuto della condotta illecita, il suo nucleo fondativo, nel realizzare, o nell’utilizzare, o progettare un sistema non “trasparente”, ascrivendo (per colpa? O non anche per dolo? Vedi sopra…) su tale base la responsabilità per gli eventi lesivi che derivino da tali sistemi. Sarebbe un vero disastro, la giustizia penale prenderebbe a colpire all’impazzata: medici che utilizzano sistemi diagnostici non trasparenti, per la mancata diagnosi della malattia o per l’esito infausto della terapia o dell’intervento, senza chiedersi peraltro se, senza l’utilizzazione di quei sistemi, l’esito infausto si sarebbe determinato lo stesso; imprenditori che impieghino sistemi di sicurezza sul lavoro supportati dall’IA, ai quali verrebbe imputato l’infortunio del dipendente per mancata previsione e valutazione dei rischi ai sensi del D. Lgs. n. 81/2008, etc.

Dobbiamo piuttosto chiarirci su che cosa significhi riserva di umanità. In chiave giuridica non è questione che possa essere definita in sede giurisprudenziale, dall’interprete. Il legislatore deve riprendere in mano lo scettro, proprio su questioni così fondamentali, senza aspettare che qualcuno venga ad offrirglielo. Riserva di umanità non può significare trasparenza algoritmica tout court.

Sotto un’altra prospettiva, tale concetto può avere un significato penalistico specifico: la responsabilità non può essere “deprivata” della sua componente umana, che è innanzitutto volontà e consapevolezza; la colpevolezza penale, in altri termini, non può essere totalmente normativizzata.

 

Back To Top