skip to Main Content

Intelligenza artificiale e responsabilità della corporation: lezioni apprese e sfide future. Intervista al Prof. Vincenzo Mongillo

Vincenzo Mongillo è Professore ordinario di Diritto penale nell’Università UnitelmaSapienza di Roma, dove è anche direttore del Master in “Antiriciclaggio e sistemi di compliance”. Vice Presidente dell’Associazione italiana dei professori di diritto penale, è anche membro del Board dell’Association Internationale De Droit Pénal e, attualmente, Visiting Fellow presso la London School of Economics and Political Science – Law School. Si occupa da tempo, tra l’altro, delle nuove frontiere del diritto penale dell’impresa, di corporate criminal liability e dei rapporti tra diritto penale e nuove tecnologie.

 

Il Prof. Vincenzo Mongillo

 

Prof. Mongillo, in che modo, secondo l’attuale quadro normativo italiano e internazionale, una persona giuridica può divenire penalmente responsabile per reati connessi all’utilizzo dell’intelligenza artificiale? Esistono differenze significative tra il diritto italiano e le esperienze straniere o internazionali?

Per rispondere a questa domanda, partirei dalla normativa italiana che disciplina la responsabilità da reato degli enti, racchiusa, come sappiamo, nel d.lgs. 8 giugno 2001, n. 231. Questo testo, pur rappresentando una delle normative più strutturate in Europa in materia di responsabilità “da reato” delle persone giuridiche, non contiene oggi alcuna disposizione specifica per i casi in cui la commissione di un illecito penale sia ascrivibile, direttamente o indirettamente, all’impiego di sistemi di intelligenza artificiale. D’altro canto, allo stato, non vi è alcuna disciplina ad hoc neppure nei principali strumenti sovranazionali vincolanti, né nelle normative straniere di riferimento. In ambito euro-unitario, il testo più rilevante oggi è senza dubbio il Regolamento (UE) 2024/1689, noto come “AI Act”, approvato in via definitiva dal Consiglio dell’Unione Europea il 21 maggio 2024. Tale atto normativo introduce regole armonizzate sull’impiego dei sistemi di IA nel mercato unico europeo, con l’obiettivo di promuovere uno sviluppo tecnologico sicuro, trasparente e affidabile. Tuttavia, non affronta direttamente – anche perché ciò non sarebbe possibile, a livello UE, tramite un regolamento – la responsabilità penale delle persone fisiche, e tanto meno quella degli enti collettivi. Uno sguardo comparatistico ad altri ordinamenti conferma questo quadro interlocutorio. Le esperienze straniere non offrono oggi soluzioni compiute o modelli normativi avanzati capaci di rispondere alla sfida posta dall’autonomia operativa dei sistemi di IA nelle dinamiche di commissione di un reato. Ci troviamo dunque di fronte a un terreno ancora largamente inesplorato, che solleva interrogativi profondi sulla tenuta dei tradizionali meccanismi di imputazione e rende necessarie alcune precisazioni preliminari, tanto sul piano concettuale quanto su quello empirico.

 

Allude al fatto che alcune distinzioni sono imposte anche delle peculiarità tecnologiche dei diversi sistemi di IA?

Senz’altro. Alcune differenziazioni risultano inevitabili proprio in ragione delle specifiche caratteristiche tecnologiche dei diversi sistemi di intelligenza artificiale. I maggiori nodi riguardano i sistemi di IA completamente autonomi che, mediante tecniche di machine learning, possono innescare decisioni svincolate dall’intervento umano e provocare eventi lesivi del tutto imprevedibili ex ante per i programmatori, i produttori o gli utenti finali. Si pensi – in via di esempio – a un abuso di mercato realizzato da un software di trading algoritmico che opera in borsa senza istruzioni specifiche, oppure ai danni fisici a terzi (omicidio colposo, lesioni personali colpose) causati da un robot a conduzione autonoma. Si tratta di casi estremi, ma tutt’altro che ipotetici: già oggi non appartengono più alla sola teoria e sono ormai comuni, in varia misura, a tutti gli ordinamenti. Ci si chiede, allora, se – e in che modo – sia possibile attribuire una responsabilità penale o “para-penale” all’azione od omissione di un essere umano a una società che abbia tratto vantaggio, magari in termini di profitto, dall’operato di un sistema di intelligenza artificiale. Questo è un dilemma tuttora aperto: l’ordinamento penale è costruito attorno all’azione o omissione di un essere umano, dotato di coscienza e volontà, sicché imputare un reato direttamente a un’entità priva di autodeterminazione – la “macchina” – appare insostenibile o comunque sarebbe pura fictio. D’altro canto, anche ricondurre il fatto all’uomo, ad esempio al programmatore o al dirigente che ha deciso l’impiego dell’IA, può risultare problematico quando l’esito dannoso è frutto dell’autonomia operativa della macchina e non era ex ante prevedibile né evitabile attraverso cautele ragionevoli. Ciò riporta, evidentemente, al quesito iniziale: tali eventi possono rimanere del tutto privi di risposta punitiva?

 

Per i sistemi di IA non autonomi il discorso cambia?

Sì, perché essi si limitano a eseguire le istruzioni ricevute dal creatore umano o comunque operano sotto il diretto controllo di una persona. Per questo, non pongono problemi particolari dal punto di vista dell’imputazione. Ove un sistema sia semplicemente uno strumento nelle mani dell’uomo, continueranno ad applicarsi le regole ordinarie: risponderà l’individuo (e, ricorrendone i presupposti, l’ente ai sensi del d.lgs. 231/2001) che ha utilizzato l’IA come mezzo per commettere un reato, secondo i consueti criteri di attribuzione causale e soggettiva della responsabilità. Analoghe considerazioni valgono per i sistemi di IA autonomi deliberatamente programmati per commettere illeciti o causare intenzionalmente danni a terzi (si pensi all’uso di un software di IA per scopi terroristici). In tali casi, essendo la macchina concepita come mero congegno criminoso, la responsabilità penale potrà essere affermata in capo alle persone fisiche che la producono o la utilizzano con fini delittuosi. E in caso di condanna dell’autore (persona fisica) e/o dell’ente, il dispositivo di IA potrà essere oggetto di confisca quale instrumentum sceleris, ai sensi dell’art. 240 c.p. (proprio come avviene per un’arma convenzionale impiegata per commettere un reato).

 

Si osserva, per contro, che l’uso dell’intelligenza artificiale possa rafforzare il sistema di compliance penale nelle imprese. Quali sono gli strumenti più efficaci che le aziende possono adottare per prevenire responsabilità penali legate all’uso di tecnologie IA?

L’universo del cosiddetto RegTech è ormai costellato da applicazioni di varia natura – dall’IA alla blockchain – che stanno già cambiando in profondità i metodi e le prassi della compliance penale e la progettazione dei sistemi di controllo interno aziendali. In particolare, sono oggi disponibili sofisticati sistemi informatici di big data analytics che, grazie alle loro straordinarie abilità di calcolo, riescono a valorizzare il patrimonio informativo dell’impresa al fine di prevenire condotte illecite. Strumenti siffatti sono capaci di individuare segnali d’allarme (c.d. red flags) che probabilmente sfuggirebbero ai metodi tradizionali di monitoraggio e audit. Possono, ad esempio, identificare prezzi d’acquisto anomali, compensi per consulenze fuori linea o flussi finanziari atipici rispetto alla media di mercato per un certo settore o area geografica – evidenziando così il rischio di fenomeni corruttivi – oppure segnalare, nella third-party due diligence, la presenza di consulenti e partner commerciali in liste di sanzioni internazionali (indicando potenziali violazioni in materia di embargo o finanziamento illecito). Ancora, sono emerse le potenzialità dell’IA nella gestione informatizzata degli adempimenti antiriciclaggio: esistono software avanzati per il corretto espletamento dell’obbligo di adeguata verifica della clientela e per il monitoraggio automatico delle transazioni sospette. Inoltre, tecnologie come la blockchain possono contribuire a rendere più trasparenti e tracciabili le decisioni e le operazioni aziendali, rendendo più difficile occultare attività illecite.

 

La nuova frontiera della digital compliance solleva anche incognite e rischi?

È inevitabile e tali rischi dovranno essere attentamente governati. Si pensi agli impatti sulla privacy e sulla protezione dei dati (considerata la mole di informazioni sensibili trattate da questi sistemi), ai possibili profili di conflitto con i diritti dei lavoratori (ad es. nel caso di sistemi di monitoraggio delle performance), nonché alle implicazioni per le garanzie difensive in caso di internal investigation (le indagini interne aziendali). Un problema concreto riguarda, altresì, la qualità dei dati raccolti e analizzati dai sistemi di IA: nel settore antiriciclaggio, ad esempio, l’impiego di filtri automatici di allerta (AML software) può generare un eccesso di segnalazioni prive di reale fondamento, cioè molti falsi positivi, con un conseguente sovraccarico di adempimenti e un scadimento qualitativo delle segnalazioni stesse. In altre parole, se i dataset e gli algoritmi non sono accuratamente calibrati, si rischia di ottenere “rumore informativo” anziché indizi utili. È quindi fondamentale che le imprese (ma anche le autorità di enforcement) adottino questi strumenti in modo consapevole, verificandone l’attendibilità e aggiornandoli costantemente. Essi andrebbero, altresì, integrati in programmi di compliance più ampi, fatti anche di procedure organizzative, formazione del personale e controlli periodici. In prospettiva, con l’entrata in vigore delle nuove normative europee in materia di IA (il già citato Regolamento UE), le aziende dovranno rafforzare ulteriormente i propri presìdi: basti pensare che i fornitori di sistemi di IA ad alto rischio saranno tenuti a implementare rigorosi sistemi di gestione dei rischi e di conformità. Questo contesto normativo spingerà gli operatori economici ad investire in soluzioni tecniche di controllo e audit dell’IA, al fine di prevenire sia comportamenti illeciti sia eventuali violazioni delle norme di prodotto imposte dal regolamento.

 

Quali tecniche sanzionatorie sono attualmente disponibili contro le imprese che fanno un uso improprio dell’intelligenza artificiale? Esistono modelli di responsabilità particolarmente innovativi o efficaci in questo campo?

In astratto sono state prospettate diverse soluzioni, alcune assai radicali. V’è chi ha proposto di configurare una responsabilità penale “diretta” in capo al sistema di IA: ma come ho detto prima, questa suggestione a mio avviso è insostenibile, perché allo stato attuale della tecnologia la macchina difetta di reale self-consciousness e dunque di “capacità di colpevolezza”. Più in generale, sappiamo che tutti i principali modelli di responsabilità penale o “da reato” degli enti – dalla vicarious liability, alla teoria dell’identificazione di common law (per cui la condotta dell’organo apicale è considerata condotta della società), fino al modello più avanzato fondato sulla colpa di organizzazione – presuppongono comunque l’esistenza di un reato-base commesso da un individuo (quello che i tedeschi chiamano Anknüpfungstat). Nel caso di decisioni totalmente autonome della macchina, questo reato-presupposto rischia di mancare o di risultare non provabile, e ciò paralizzerebbe qualsiasi imputazione all’ente.

 

Dunque rischia di incepparsi anche il ricorso alla colpa di organizzazione come fondamento della responsabilità dell’ente? Mi pare che lei ne abbia accennato nel suo Special Report presentato all’ultimo Congresso dell’Association Internationale de Droit Pénal.

Sì, ne ho parlato anche in occasione del congresso dell’AIDP tenutosi a Parigi nel giugno 2024, interamente dedicato al tema “Artificial Intelligence and Criminal Law”. Nel mio Report, intitolato “Corporate Criminal Liability for AI-Related Crimes”, ho anche evidenziato che il principale ostacolo nel tentativo di “responsabilizzare” penalmente l’impresa per eventi dannosi causati da strumenti di IA completamente autonomi risiede nelle difficoltà probatorie legate all’individuazione e alla dimostrazione del fatto di reato commesso da una persona fisica. Se lo sviluppo lesivo è davvero imprevedibile ex ante e l’uso di quella macchina non era vietato (cioè non esisteva un divieto legale di impiegarla, anche solo su basi precauzionali), non possiamo punire un essere umano – neppure per colpa – per il verificarsi di quell’evento. Manca, infatti, l’esigibilità di una condotta diversa: non si poteva pretendere che l’operatore prevenisse un esito imprevedibile. È dunque difficile, in simili frangenti, provare tutti gli elementi costitutivi di un reato in capo a una persona fisica, inclusi il nesso causale tra un’azione od omissione umana e l’evento prodotto dalla macchina, nonché il necessario elemento soggettivo (dolo o colpa). A complicare le cose vi è il fatto che nella realizzazione e messa in esercizio di sistemi di IA avanzati intervengono molteplici attori – programmatori, sviluppatori di componenti, produttori hardware, fornitori di dati, utilizzatori finali – spesso organizzati in filiere o reti globali. Individuare la singola condotta colposa (ad esempio un errore di progettazione) all’origine del danno diviene quindi estremamente arduo. Ed è ancora più proibitivo dimostrare la colpa quando i meccanismi di apprendimento della macchina sfuggono alla nostra comprensione dettagliata (il noto problema della black box degli algoritmi di deep learning). In sintesi, mancando il reato presupposto di una persona fisica, non è possibile attivare la responsabilità punitiva dell’ente ex d.lgs. 231/2001. Finché non sarà normativamente chiarito chi debba fare cosa per prevenire gli esiti dannosi dell’IA, e fino a che punto sia lecito assumere rischi tecnologici, sarà difficile imputare colpe e responsabilità a posteriori. Perché ciò contrasta con i fondamenti consolidati dell’imputazione a titolo di colpa.

 

Sono state ipotizzate anche soluzioni penalistiche più classiche, di matrice individuale?

Sul piano delle iniziative normative concrete, una strategia penalistica alternativa consisterebbe nell’introduzione di nuovi reati omissivi propri addebitabili a chi ometta di predisporre le dovute cautele nell’uso di IA. Si tratterebbe di fattispecie costruite, ad esempio, sulla falsariga dell’art. 437 c.p. (rimozione od omissione dolosa di cautele contro infortuni sul lavoro), incentrate però, nella specie, sulla mancata adozione o il mancato adeguamento di misure di sicurezza nella progettazione, messa in circolazione o impiego professionale di sistemi di IA. In questa direzione si muoveva – e in parte tuttora si muove – il disegno di legge n. 1146/2024, che prevedeva una delega legislativa ad introdurre reati così modellati (cfr., in particolare, l’art. 22, comma 5, lett. b). Non mi pare tuttavia l’opzione preferibile, specialmente alla luce del principio di sussidiarietà: il diritto penale dovrebbe restare extrema ratio, da azionare solo laddove la tutela desiderata non possa essere altrimenti garantita. Il testo approvato lo scorso marzo in prima lettura dal Senato (v. art. 24, comma 5, lett. b) aggiunge, nella struttura del reato, un requisito di «pericolo concreto per la vita o l’inco­lumità pubblica o individuale o per la sicu­rezza dello Stato» quale conseguenza dell’omissione delle misure di sicurezza. A parte la difficoltà di provare questo nesso di derivazione tra l’omissione ed un evento di pericolo concreto, credo che dovremmo guardarci dalla tentazione di introdurre a raffica nuove fattispecie penali speciali sull’onda dell’“emozione tecnologica”. Il rischio è quello di una risposta affrettata, di carattere prevalentemente simbolico, che sovraccarichi ulteriormente (e inutilmente) il sistema penale senza risolvere i problemi pratici.

 

Parrebbe non restare altra via se non quella del diritto sanzionatorio amministrativo… 

È proprio la strada seguita dall’AI Act europeo: comminare sanzioni pecuniarie (amministrative) per la violazione dei requisiti e obblighi di conformità imposti dalla normativa tecnica, eventualmente integrate a livello nazionale. Il regolamento UE, infatti, stabilisce già un quadro di illeciti amministrativi e relative sanzioni (anche molto severe, fino a 30 milioni di euro o al 6% del fatturato annuo) per chi immetta sul mercato sistemi di IA non conformi agli standard di sicurezza, trasparenza e gestione del rischio. Agli Stati membri è lasciato spazio per aggiungere sanzioni proprie. A mio avviso, allo stato questa è la via più realistica per disciplinare l’uso scorretto dell’IA da parte delle imprese: in caso di violazioni, colpire l’ente sul piano economico-regolatorio, più che cercare di applicare forzosamente categorie penalistiche classiche a fattispecie complesse e del tutto inedite.

 

Quali evoluzioni legislative si aspetta nel prossimo futuro per disciplinare in modo più efficace i reati connessi all’intelligenza artificiale?

Non è facile dirlo. Ad ogni modo, credo che il diritto penale dovrà comunque accettare l’esistenza di una zona (per quanto auspicabilmente ridotta) di rischio consentito nell’utilizzo di IA – analoga a quella che già conosciamo, tra l’altro, in ambito medico o industriale – dove residua la possibilità di “danni senza colpa”. Il problema è, come sempre, il limite della “tollerabilità” del rischio. Equilibrio e proporzionalità dovranno guidare il legislatore nel calibrare eventuali interventi futuri. E questo riguarda anche il versante del diritto sanzionatorio amministrativo. Sotto questo profilo, a livello sovranazionale europeo e, parallelamente, a livello interno, si stanno già delineando alcune direttrici di riforma. Il primo passo – in parte già compiuto – consiste in una lungimirante regolamentazione pubblica dell’IA: occorre fissare le “regole del gioco” tecnologico, definendo i confini del c.d. erlaubtes Risiko (il suddetto “rischio consentito”) nell’uso di queste soluzioni. Da questo punto di vista, l’entrata in vigore del Regolamento dell’UE (primo caso di regolamentazione “regionale” al mondo) rappresenta un momento cruciale. Il regolamento, come anticipato, adotta un approccio basato sul rischio: classifica i sistemi di IA in categorie di rischio crescente – inaccettabile, alto, limitato, minimo – e prevede, rispettivamente: (1) divieti di immissione sul mercato e utilizzo per le applicazioni di IA dal rischio “inaccettabile” (ad esempio i sistemi di social scoring in stile cinese, o talune forme di identificazione biometrica massiva); (2) rigide regole di conformità (requisiti tecnico-organizzativi, valutazioni di conformità, obblighi documentali) per introdurre sul mercato in sicurezza gli strumenti ad alto rischio e per il loro monitoraggio durante tutto il ciclo di vita, con obblighi precisi in capo ai vari soggetti coinvolti (produttori, distributori, utilizzatori); (3) semplici obblighi di trasparenza per gli AI a rischio limitato (come i chatbot o i sistemi che generano contenuti non realistici). Per i sistemi a rischio minimo (es. filtri antispam) il regolamento non interviene affatto, lasciando libertà d’azione. Questo quadro graduale consente, da un lato, di vietare gli usi più pericolosi e contrari ai nostri valori – il legislatore UE ha espresso un chiaro veto verso le applicazioni che comportano manipolazione comportamentale indebita, punteggi sociali o profilazione biometrica discriminatoria – e, dall’altro, di imbrigliare con regole stringenti gli utilizzi leciti ma rischiosi, come molti impieghi dell’IA nel settore sanitario, finanziario, dei trasporti, in ambito lavorativo, nelle attività di polizia e giustizia, ecc. Il regolamento affida poi agli Stati membri il compito di stabilire sanzioniefficaci, proporzionate e dissuasive” in caso di violazione dei requisiti. Oltre alle multe amministrative già previste uniformemente a livello UE, ogni Stato potrà, se del caso, introdurre ulteriori misure punitive nel proprio ordinamento.

 

A suo avviso, quali sono gli errori che i legislatori nazionali dovranno evitare nell’esercizio della discrezionalità lasciata dalla regolamentazione dell’UE?

Ribadisco la necessità di evitare la consueta tendenza alla panpenalizzazione, cioè quella risposta automatica e riduttiva che consiste nell’ampliare il catalogo dei reati di fronte a ogni nuova sfida. Una strategia apparentemente semplice, ma in realtà sterile. Purtroppo mi pare vada, in buona parte, in questa direzione il disegno di legge sulla IA, che citavo poc’anzi, considerato che il testo approvato in prima lettura dal Senato prospetta – conferendo apposita delega al Governo – l’introduzione di numerose nuove fattispecie di reato nonché di varie circostanze aggravanti. Per inciso, nonostante quest’attivismo penalistico, nel DDL non vi è traccia di una riforma parallela della responsabilità degli enti ex d.lgs. 231/2001.  Tuttavia, un’apertura in tal senso può rinvenirsi nel criterio di delega di cui all’art 24, comma 5, lett. c), del DDL (inserito dal Senato il 20 marzo 2025): “c) precisazione dei criteri di imputazione della responsabilità penale delle persone fisiche e amministrativa degli enti per gli illeciti inerenti a sistemi di intelligenza artificiale, che tenga conto del livello effettivo di controllo dei sistemi predetti da parte dell’agente”. Ad ogni modo, a me pare realistico il timore che il diritto penale venga elevato, anche in questo campo, a prima ratio di tutela anziché rimanere l’ultima risorsa, come insegniamo ai nostri studenti. Personalmente riterrei, pertanto, auspicabile un approccio più equilibrato e sistematico. In questa direzione, sarebbe opportuna la esplicita considerazione, da parte del legislatore, anche della responsabilità della persona giuridica. Ad oggi, i casi di reati legati all’IA sono ancora pochi, ma è prevedibile che, nel prossimo futuro, il crescente utilizzo di questi sistemi digitali nei contesti aziendali sollevi il problema dell’attribuzione della responsabilità penale e, tenuto conto degli importanti interessi in gioco, non possiamo farci cogliere impreparati, per evitare sia vuoti di tutela sia eccessi punitivi.

 

Concluderei con una domanda di taglio più generale. Quale dovrebbe essere il nostro atteggiamento nei confronti dei nuovi strumenti di intelligenza artificiale.

 Credo che fondamentale, oggi più che mai, sia il telos, il fine ultimo che orienta le nostre scelte scientifiche, tecnologiche e normative. La nostra prospettiva sull’intelligenza artificiale non può essere neutra o puramente funzionale: deve rispecchiare una visione antropocentrica rinnovata, una sorta di nuovo umanesimo tecnologico. Le tecnologie che progettiamo e mettiamo in circolazione devono essere concepite come strumenti al servizio della dignità umana, dei diritti fondamentali, dello sviluppo sostenibile e, in ultima analisi, del bene comune. Questa è la logica che anima anche la Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale, i diritti umani, la democrazia e lo Stato di diritto, adottata il 17 maggio 2024 e aperta alla firma dal 5 settembre dello stesso anno: un trattato pionieristico, il primo giuridicamente vincolante in ambito internazionale, che pone le basi per uno sviluppo dell’IA ispirato ai valori fondanti delle democrazie costituzionali europee. L’alternativa è inquietante, e non è certo frutto di catastrofismi ideologici: è il pericolo, lucidamente segnalato anche da Papa Francesco nel suo messaggio per la 57ª Giornata Mondiale della Pace (1° gennaio 2024), secondo cui «nel contesto ideologico di un paradigma tecnocratico, animato da una prometeica presunzione di autosufficienza, le disuguaglianze potrebbero crescere a dismisura, e la conoscenza e la ricchezza accumularsi nelle mani di pochi, con gravi rischi per le società democratiche e la coesistenza pacifica». Ed è significativo che anche il nuovo Pontefice, Papa Leone XIV, abbia già posto l’intelligenza artificiale (IA) al centro del suo pontificato, considerandola una delle sfide etiche e sociali più urgenti del nostro tempo. Di conseguenza, senza una cornice etica e giuridica condivisa, l’IA rischia di diventare non uno strumento di emancipazione, ma un moltiplicatore di disuguaglianze e un veicolo di potere concentrato. Per questo, l’intelligenza e la responsabilità umane restano – e devono restare – le vere artefici del futuro. È da esse che dipende la traiettoria che sceglieremo di imprimere allo sviluppo dell’intelligenza artificiale: se orientarla al progresso umano e sociale, oppure piegarla, come già accade in alcuni scenari, alle logiche del profitto privato, della sorveglianza pervasiva o del controllo autoritario. La posta in gioco non è soltanto tecnica o economica: è profondamente politica, culturale e, in ultima analisi, interpella la nostra coscienza di esseri umani, vere macchine pensanti, dotate di giudizio, responsabilità e capacità di scelta. Il compito che ci attende, e che ancor più interpella le intelligenze più fresche, le nuove generazioni, è immenso.

Back To Top