Si è svolto il 20 gennaio 2025 il primo incontro che ha dato avvio alla…
Logica umana e applicazioni della razionalità artificiale. Intervista al Prof. Angelo Costanzo
Angelo Costanzo, laureato in giurisprudenza e in filosofia della scienza. Ha operato in tutti i settori della magistratura giudicante, anche con funzioni direttive.
Attualmente è consigliere della Corte di cassazione di cui presiede ordinariamente collegi penali. È autore di numerosi articoli e monografie, oltre che in diversi settori del diritto positivo, sulla logica giuridica. Abilitato come Professore ordinario di filosofia del diritto, tiene corsi universitari di Filosofia del diritto, di Macchine intelligenti e diritto e lezioni di diritto penale e argomentazione giuridica nelle Scuole di Specializzazione per le Professioni legali.
Da decenni opera nella formazione dei magistrati, come relatore nei corsi della Scuola Superiore della Magistratura, della quale attualmente è referente per l’area penale nella Corte di cassazione, e coordinatore dei tirocini presso gli Uffici giudiziari.
Il Prof. Angelo Costanzo
L’ars distinguendi emerge come un’arte fondamentale per evitare errori interpretativi nel diritto. Quali sono, secondo Lei, i casi o gli ambiti più significativi in cui questa capacità si rivela indispensabile?
L’ars distinguendi è legata alla naturale attitudine della mente a osservare le somiglianze e, al contempo, a cogliere le differenze. Vale in tutti i campi del sapere e si affina con l’esperienza.
Nel diritto è indispensabile per cogliere la specificità dei casi, evitando gli errori che derivano dal trattare allo stesso modo situazioni diverse.
Serve, in particolare, per risolvere incompatibilità fra dati normativi, per trovare una eccezione a una massima di comune esperienza, per affinare un precedente ragionamento.
La ricerca di ragioni per accantonare una somiglianza e tramutarla in una diversità rilevante può dipendere dai diversi livelli di analisi: due oggetti possono apparire simili a un dato livello ma a un altro possono differire. L’albero di Porfirio (quello delle ramificazioni concettuali) può variamente svilupparsi e in modi diversi ci si può arrampicare e appollaiare sui suoi rami.
La molla intellettiva che porta a associare o dissociare le nozioni è attivata da una opzione interna alla psicologia e alla formazione culturale.
Può anche accrescere inizialmente l’incertezza del diritto − perché solleva nuovi problemi rivelando complessità inattese − ma, infine, giova alla Giustizia.
Il serbatoio di informazioni e di nessi che fornisce la materia necessaria all’esercizio dell’ars distinguendi sta nel preconscio, depositario di miriadi di dati fra loro correlati che defluiscono nel transito verso la elaborazione di un ragionamento espresso con un discorso.
Questo passaggio è indispensabile per la comunicazione e, per altro verso, una parte dei dati può riemergere nella interazione con le menti di altri soggetti, tanto più se questi sostengono posizioni di segno contrario.
In effetti, argomentando intorno a un tema possono evocarsi e variamente intrecciarsi molteplici relazioni logiche fra i dati che collegano i vertici di strutture complesse, incorporanti miriadi di associazioni latenti che possono riemergere espressamente o inserirsi surrettiziamente nel discorso manifesto.
In definitiva, la forza persuasiva di una argomentazione è influenzata dal combinarsi fra la logica dell’identità (che regge i ragionamenti fondati su inferenze deduttive) e la logica della somiglianza (che regge l’analogia, i ragionamenti fondati sulle inferenze induttive e l’abduzione come fonte di indizi).
Questa combinazione è efficace se rispetta un canone fondamentale: la cogenza logica ha (se riconosciuta) un’efficacia persuasiva in sé, alla quale può aggiungersi, ma non può validamente sostituirsi, la forza (psicagogena) delle varie forme di associazioni fra i dati.
Nel Suo intervento, ha evidenziato i limiti della logica computazionale e dei sistemi esperti nell’applicazione al diritto. Quali sono le principali conseguenze di queste limitazioni sul processo decisionale giuridico?
Gli algoritmi forniscono risultati certamente utili quando producono i sistemi esperti perché questi operano secondo una logica pienamente determinata da chi li ha progettati e che è controllabile dall’utente se (studiando e aggiornandosi) si mette in grado di comprenderne il funzionamento in modo da utilizzarli come semplici strumenti di supporto per operazioni che anche da sé potrebbe completare.
I modelli logici che reggono i sistemi esperti si fondano su delle regole incentrate sul nesso inferenziale fra antecedente e conseguente (espresso dalla formula “se…→ allora…”).
Da anni si dispone di loro utili applicazioni per rendere più rapide operazioni improntate a una logica deduttiva, come, per esempio, fra le più semplici: il calcolo delle prescrizioni dei reati o la quantificazione di un indennizzo o del risarcimento di un danno sulla base di criteri predeterminati). Molti operatori del diritto, appassionati di applicazioni dell’informatica, sono in grado di costruire da sé un sistema esperto semplice per soddisfare loro esigenze.
Inoltre, poiché i diversi criteri di interpretazione e di inferenza possono condurre a una pluralità di risultati plausibili ma non tutti derivanti da operazioni intellettuali sempre rispettose dei principi della logica formale, i sistemi logici esperti possono aiutare a scoprire i discorsi pseudologici, introducendo nell’itinerario dei ragionamenti canoni di correttezza che consentono di rilevare le fallacie. Potrebbero anche − se opportunamente costruiti − aiutare a individuare alcuni presupposti dei ragionamenti e, più agevolmente, a determinarne alcune conseguenze.
Questo vale sia per l’analisi dei testi legislativi (per la loro redazione e per le inferenze che se ne possono trarre) sia per il vaglio dei provvedimenti (per i loro contenuti e per le inferenze che se ne possono trarre).
A tali scopi possono servire i software che rappresentano fatti e regole tramite la logica formale e l’uso di tecniche per derivare le conseguenze di determinate ricostruzioni dei fatti e le implicazioni di una certa interpretazione delle disposizioni (c.d. computational law). Ma sinora presentano un limite che è lo stesso della logica computazionale generale (computational logic) : non vanno oltre il calcolo proposizionale, cioè il calcolo logico in cui l’analisi delle inferenze viene condotta al livello delle proposizioni senza indagare la struttura interna delle proposizioni stesse.
Pur con questo limite alcuni algoritmi potrebbero proficuamente utilizzarsi per controllare la correttezza logica di una parte delle argomentazioni che riguardano la prova dei fatti individuando almeno le illogicità manifeste, di un ragionamento. A tal fine, però, si richiede una purificazione del linguaggio (con una necessaria evoluzione culturale nella formazione dei giuristi) con cui si esprimono le argomentazioni probatorie in modo da curarne adeguatamente la forma logica e renderle trattabili dai programmi che utilizzano sistemi logici esperti.
Un limite fondamentale dei sistemi esperti è complementare alla loro virtù, poiché partono premesse iniziali fisse, in molti campi vanno periodicamente aggiornati, come quando, per esempio, sono intervenute modiche normative e nella giurisprudenza.
L’interazione tra giuristi e strumenti di intelligenza artificiale richiede una vigilanza consapevole. Quali competenze ritiene essenziali per i professionisti del diritto per sfruttare al meglio questi strumenti senza perdere il controllo sul processo decisionale?
L’utilizzo della intelligenza artificiale, nelle sue varie forme e graduazioni, può influire positivamente sulla imparzialità del giudicante perché può ampliare il novero dei dati e delle prospettive da utilizzare per la decisione.
Ma comporta anche il rischio di frenare, inibire, deviare o cristallizzare l’immaginazione logica e l’immaginazione etica che sono le sorgenti della imparzialità, intesa nel suo senso più pregnante di apertura – emancipati da pregiudiziali autolimitazioni intellettuali − alle diverse ragionevoli interpretazioni dei dati normativi e alle diverse non implausibili ricostruzioni dei fatti.
Intanto, è necessario fornire a chi si impegna nella produzione e nell’applicazione del diritto gli strumenti intellettuali necessari per mantenere il controllo della situazione in fieri e utilizzare proficuamente gli apporti dell’intelligenza artificiale, che ─ pur con i suoi notevoli limiti che suscitano perplessità ─ certamente sta già producendo cambiamenti veloci con effetti di cui si percepiranno pienamente le conseguenze solo dopo che si saranno compiutamente realizzati. In sostanza, è ovvio che per evitare che il ricorso agli strumenti della razionalità artificiale possa risolversi, invece che in un potenziamento, in un affievolimento dell’uso della razionalità serve accrescere e consolidare negli utenti la consapevolezza e la conoscenza dei canoni che ordinariamente permettono di sviluppare ragionamenti umani razionali, al fine di mantenersi nella condizione di controllare espressioni di razionalità artificiale che ─ tramite le lusinghe dell’efficienza tecnologica ─ potrebbero finire per tradursi in nuove forme di irrazionalità.
Ha descritto il rischio che l’intelligenza artificiale possa generare nuove forme di irrazionalità, nonostante le promesse di efficienza tecnologica. Quali sono gli accorgimenti necessari per scongiurare questo pericolo nell’ambito giuridico?
La razionalità artificiale non è in grado di sostituire il giurista ma può aiutarlo quando tratta una quantità di dati superiore a quelli che un individuo umano può gestire.
Tuttavia, secondo quali criteri li acquisisce e li organizza?
Può associare o distinguere i dati non in relazione a criteri già fissati. Ma può farlo vagliando le specificità di casi concreti costituiti da eventi singoli ?
Gli algoritmi aperti alla acquisizione di informazioni (ulteriori rispetto a quelle di cui sono muniti come premesse iniziali) tramite forme di apprendimento automatico da parte degli stessi sistemi che si basano su generalizzazioni estratte da casi (valutati come) simili, non hanno la capacità di considerare adeguatamente le circostanze di ogni caso concreto anche perché, comunque, non sono in grado di procurarsi tutte le informazioni che sarebbero necessarie.
Le cosiddette reti neurali mirano a superare tali limiti mediante strategie di adattamento flessibile all’ambiente, con una sorta di parodia del sistema neurale animale.
Possono essere molto abili nel cogliere nessi fra miriadi di dati e individuare somiglianze. Tuttavia, mentre la mente umana, nel cogliere le somiglianze, la mente umana è in grado di cogliere anche le differenze ─ perché segue un percorso mentale che può essere reso pienamente autoconsapevole se si mantiene in grado di utilizzare gli strumenti critici di cui dispone ─ la razionalità artificiale ordinariamente non lo fa, perché procede inconsapevolmente..
In particolare, per i sistemi basati sull’apprendimento automatico non può escludersi che il nuovo caso esaminato, seppur assimilabile ai precedenti per le caratteristiche considerate dalla rete, non si adatti alla predizione.
Questa condizione non è risolta, anzi potrebbe essere aggravata, dalla possibilità di siffatti sistemi (che, quindi, si rivelano inesperti) di utilizzare grandi masse di dati dai quali estrarre correlazioni e generalizzazioni.
Inoltre, a differenza di un albero di decisione sul quale si incentra un sistema esperto, la rete neurale non fornisce direttamente spiegazioni comprensibili per i suoi output, sicché è equiparabile a una black box priva, per definizione, di trasparenza.
In definitiva, ai risultati forniti da questi sistemi può attribuirsi un valore euristico di suggerimenti, prospettazioni, indizi da sottoporre alla intelligenza umana.
Lei propone una rinnovazione delle artes sermocinales per rispondere alle sfide poste dall’intelligenza artificiale. Quali interventi concreti immagina per integrare questa prospettiva interdisciplinare nella formazione e nella pratica giuridica?
Intanto, direi che è preferibile utilizzare l’espressione «razionalità artificiale» a posto di «intelligenza artificiale», perché la seconda è fuorviante e indurre a suggestioni e aspettative che, almeno allo stato, non sono fondate e che, peraltro, possono essere alimentate dagli interessi, non soltanto meramente setifici, che muovono gli investimenti e i profitti (in misura preponderante privati) nel settore.
Poiché (ma non da oggi) queste nuove tecnologie riguardano direttamente lo svolgimento di operazioni di tipo intellettuale, è necessario un aggiornamento della istruzione di base delle persone, affinché esse siano cittadini in grado di mantenersi consapevoli cittadini degli accadimenti.
Le nuove tecnologie ordinariamente qualcosa tolgono e qualcosa aggiungono alle ordinarie capacità umane.
Tuttavia, la razionalità artificiale è qualcosa di più di una semplice tecnologia perché utilizza la logica umana per superarne, in certi casi, le capacità.
Inoltre, offre alle menti una occasione di confrontarsi con procedimenti algoritmici che costituiscono in parte un rispecchiamento delle loro funzioni.
Per questo, può accrescere come anche impoverire le capacità intellettuali e le competenze professionali.
Per esempio, applicata alla medicina, può ampliare potentemente le possibilità terapeutiche (e ancora prima di indagine scientifica), ma comporta rischi per l’autonomia intellettuale del medico e può influenzare il rapporto terapeutico con il paziente e la sua capacità di comprendere i trattamenti che gli vengono proposti.
Se introdotta su larga scala, può elevare la qualità minima della assistenza terapeutica, ma potrebbe anche incidere negativamente sulla individualizzazione delle cure per i pazienti poveri e meno informati.
Pare facile valutare quali analoghi effetti può avere in altri ambiti, come quello giuridico, o sulla didattica.
Allora, sarebbe auspicabile una meditata rinnovazione delle artes sermocinales in modo che queste ─ nella linea di sviluppo delle tradizionali (e ormai trascurate) arti del trivio (grammatica, retorica, dialettica) ─ si rimodulino come moderni strumenti interdisciplinari includenti la linguistica generale, la logica (con le sue diramazioni nell’informatica e nel calcolo delle probabilità), la metodologia.
Infatti, il rapporto con novità destinate a amplificarsi e a irradiarsi con aggiornamenti frequenti (anche perché sollecitati dagli interessi economici che alimentano questo settore dell’innovazione) richiede percorsi di formazione pubblici e generalisti, ma dai contenuti approfonditi che conducano a coltivare l’attitudine alla consapevole rivisitazione degli strumenti intellettuali in proprio possesso.
Non bastano slides e infarinature di idee preconfezionate. Servono programmi di studio adeguati e l’introduzione di queste materie nei corsi universitari e anche nei meccanismi di selezione concorsuali: non tramite quiz e domande a risposta multipla ma con interazioni dialogiche che facciano capire se alla acquisizione delle nozioni è corrisposto un effettivo processo di maturazione intellettuale.
In particolare, il modello di argomentazione tracciato per il ragionamento probatorio nei processi si ispira al razionalismo dialettico e, in questa direzione, la Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari richiede la coerenza logica dei calcoli algoritmici e un itinerario di decisione conforme ai principi del diritto processuale.
In altri termini, richiede che il risultato algoritmico sia corroborato da elementi di prova elaborati secondo il metodo dialettico, che è una prerogativa delle menti umane.
Forse, nel futuro, potrà svilupparsi una nuova logica formale per confezionare sistemi esperti in grado di cogliere la dialettica degli argomenti tra loro contrapposti e usare tecniche per inventarli (già la euristica tradizionale ne offre alcune) o per attaccarli e confutarli, formalizzando il defeseable reasoning, ossia il ragionamento che è convincente ma che potrebbe essere sconfessato da specifiche eccezioni e, quindi, soggetto a refutazioni.
Invece, sono meno facilmente pronosticabili sistemi formali in grado divalutare autonomamente il peso degli argomenti, perché la forza di un argomento dipende anche dal contesto in cui si colloca e il contesto può variare secondo circostanze mutevoli. In ogni caso, in questo ambito al momento i vari sistemi di intelligenza artificiale − quando si supera una certa soglia di complessità delle questioni − non offrono quel che la intelligenza umana può produrre facilmente e correttamente (se ben educata e se abituata a sorvegliare i propri stati mentali), sicché ricorrere alle applicazioni di elaborazioni teoriche interessanti ma ancora embrionali sarebbe come servirsi di un computer per compiere calcoli per i quali basta mantenersi capaci di fare i conti a mente.
Intanto, è necessario abituarsi a ragionare conoscendo i meccanismi della probabilità statistica (con cui funzionano molti sistemi di razionalità artificiale) ma mantenendosi consapevoli del fatto che l’uso di algoritmi fondati su modelli statistici porta a risultati conformi alle leggi del calcolo delle probabilità ma non sempre compatibili con le esigenze di certezza «oltre il ragionevole dubbio».
Proprio perché ammette eccezioni, una legge statistica non offre base a un giudizio di necessità causale, neppure se afferma una elevata probabilità statistica.
Il rapporto causale si istituisce sempre fra eventi singoli e sarebbe manifestamente illogico assumere che la spiegazione di un evento storico si possa ottenere soltanto sulla scorta di una legge generale, nel senso che non è sufficiente la legge generale per spiegare l’evento.
La spiegazione causale di un evento singolare è sempre storica, perché la causa è descritta da condizioni iniziali singolari all’interno di un contesto: spiegare un evento causalmente vuol dire spiegare come e perché l’evento è accaduto, ossia raccontarne la storia.
La spiegazione di un evento singolo non può fondarsi sulla sua mera riconduzione sotto una legge scientifica generale e neanche derivare da un calcolo statistico. Le illustrazioni statistiche sono affette da ambiguità esplicativa perché basate su informazioni che riguardano classi di eventi: quando si deve valutare quale sia il grado di probabilità di un singolo evento sorge il problema dell’ambiguità esplicativa, che concerne l’uso delle informazioni statistiche che riguardano, invece, classi di eventi. Possono presentarsi spiegazioni statistico-induttive entrambe legittime: per ogni spiegazione probabilistica con explanans vero che conferisce la quasi-certezza di un particolare evento, ci sarà spesso un argomento concorrente avente la stessa forma probabilistica e con premesse egualmente vere che conferisce la quasi-certezza della non occorrenza dello stesso evento
In altri termini, la spiegazione di uno specifico evento singolo non può prescindere da una analisi concreta e dettagliata del complesso delle plurime condizioni singolari che precedono il prodursi dell’evento singolo. Non può escludersi che l’evento che ordinariamente si tende a attribuire a una data causa si sia invece verificato per altra causa: in altro modo, sotto altre circostanze, sulla base di altre condizioni: nella ricerca delle cause specifiche degli eventi singoli alcune serie causali possono risultare anomale rispetto ai criteri di spiegazione ordinari.