skip to Main Content

Intervista alla Prof.ssa Lucia Corso. Piattaforme online, dati e intelligenza artificiale tra interessi pubblici e garanzie dei privati

La Prof.ssa Lucia Corso è Professore ordinario in filosofia del diritto presso l’Università di Enna, Kore. Ha conseguito un LL.M presso la New York University School of law e un Dottorato di Ricerca in Teorica giuridica, sociale e politica, presso l’Università Federico II di Napoli. Ha svolto attività di Visiting fellow presso la New York University School of Law e di Research Fellow presso la Cambridge University Library della Cambridge University, oltre che in varie altre istituzioni straniere, come la Yale Law School, la London School of Economics e l’American Academy in Rome.

I suoi interessi di ricerca spaziano in diverse direzioni, concentrandosi sulla filosofia del diritto internazionale, sui classici del pensiero filosofico giuridico e sulla teoria del diritto contemporanea. Inoltre, studia ebraico biblico. Ha ricoperto ruoli di responsabilità in progetti di ricerca e fa parte del comitato scientifico di diverse riviste accademiche.

Attualmente, è responsabile dell’Unità di ricerca ENNA KORE PRIN 2022 su “The Virtues of the Rule of Law as an Institutional Ethos”, con scadenza nel 2025, e ha preceduto come responsabile dell’Unità di ricerca ENNA KORE PRIN 2015 su “Soggetto di diritto e vulnerabilità: modelli istituzionali e soggetti giuridici in trasformazione”.

Inoltre, è membro del comitato scientifico della rivista KorEuropa e della collana “Quaderni Mediterranei” della casa editrice Euno Edizioni

La Prof.ssa Lucia Corso

 

Potrebbe spiegarci cosa si intende per logica predittiva ed etica dell’uso delle IA? Considera che l’IA possa essere maggiormente associata a un’etica dell’azione o della personalità di profilo?

Quando si discute di IA, algoritmi, logica predittiva, scienza dei dati si corre il rischio di essere molto approssimativi, sicché è opportuno partire da alcune precisazioni generalissime. Anche queste precisazioni vanno prese con la dovuta cautela, perché sulle definizioni dei concetti di base non c’è accordo. Partiamo dall’IA.

Una definizione paradigmatica è quella proposta da John McCarthy, uno dei pionieri di questa disciplina: [L’IA] è la scienza e l’ingegneria del fare macchine intelligenti, specialmente programmi intelligenti per computer. È connessa al compito simile di usare i computer per comprendere l’intelligenza umana, ma l’IA non ha la necessità di limitarsi a metodi che sono biologicamente osservabili. Ora, definire l’IA una scienza che replica l’intelligenza umana presuppone che vi sia accordo su cosa sia l’intelligenza umana. Il Regolamento di recente approvazione, il cd. AI Act, offre una definizione più specifica, collegando la costruzione dei sistemi di IA ad una determinata serie di obiettivi definiti dall’uomo, a generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono. Quindi, già nella definizione è chiaro che una delle funzioni dell’IA, e forse una delle principali, è quella di fare previsioni. Questa capacità dipende poi sia dalle tecniche che caratterizzano l’IA. Il Regolamento su questo rimanda ad un allegato I dove le tecniche indicate sono: l’apprendimento automatico, compresi l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo; approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti; c) approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione).

In altri termini, l’abilità di formulare previsioni è una delle capacità dell’IA, ma non l’unica, ed è dipendente dalle tecniche utilizzate. Queste tecniche poi presuppongono la formulazione di algoritmi e soprattutto l’esistenza di una massa enorme di dati cui la macchina intelligente può attingere. Sebbene spesso utilizzati in modi intercambiabili, IA e algoritmo non sono concetti identici.  Il termine “algoritmo” è spesso usato per far riferimento, in modo preminente, se non esclusivo, alle applicazioni di IA, e lo ritroviamo in locuzioni come “processi decisionali algoritmici” (algorithmic decision-making), “governance algoritmica ”, “costituzionalismo algoritmico”, e così via. È importante ricordare, tuttavia, che gli algoritmi, quali procedure suscettibili di applicazione automatica, hanno un campo di utilizzo che si estende al di là dei sistemi di IA, ricoprendo ogni sistema informatico (Sartor  2022, p. 9).

Ora, sebbene le modalità di funzionamento dell’IA seguano logiche diverse e variegate (si pensi ad esempio ai tentativi di riprodurre forme di argomentazione o ragionamenti di logica deduttiva), la previsione su comportamenti futuri occupa un posto centrale specialmente negli algoritmi cui sono assegnate funzioni decisionali.

Che tipo di conseguenze produce per il diritto la preminenza della logica predittiva sulle altre logiche? I sistemi giuridici funzionano sulla base di alcuni assunti predittivi. La norma viene confezionata alla luce dell’incentivo o del disincentivo che la sanzione può esercitare sul destinatario delle norme (da qui la natura perniciosa di norme inutilmente severe, notava Jeremy Bentham). Il cittadino si muove anche in considerazione della minaccia della sanzione (il guidatore che rallenta all’altezza di un autovelox). Il giudice in qualche misura decide anche anticipando il giudizio di giudici successivi (di grado superiore), o giuristi (che scrivono una nota a sentenza), o dell’opinione pubblica. Il realismo giuridico, movimento filosofico giuridico che nasce contestualmente negli Stati Uniti a cavallo fra fine Ottocento ed inizio Novecento e nei paesi scandinavi, riduce il diritto alla sua dimensione predittiva. Il diritto è ciò che faranno i giudici, scrive Oliver Wendell Holmes nel celebre testo, the Path of Law.

L’IA ha dato sostegno a questa tesi e ha potenziato la dimensione predittiva del diritto, tanto che gli algoritmi di giustizia predittiva oggi assistono i giudici nella formulazione delle decisioni. Rinvio alcune considerazioni alla risposte alla domanda successiva. Adesso, mi interessa interrogarmi sugli effetti dell’enfasi sulla logica predittiva per il diritto e per i giuristi. Questa enfasi non nasce dal nulla e si accompagna a sviluppi analoghi in altri territori, ad esempio quello delle scienze cognitive, le neuroscienze, il comportamentismo, tanto per citarne alcuni. Quello che questi approcci hanno in comune è di studiare il comportamento umano, per così dire, dall’esterno e cioè assumendo il punto di vista di un osservatore interessato innanzitutto ai nessi causali che scandiscono la sequenza che precede un’azione. Le teorie che spiegano queste sequenze possono poi variare per grado di sofisticazione: dalla tesi provocatoria attribuita al Jerome Frank che la decisione dipende da ciò che ha mangiato il giudice a colazione, a forme più sofisticate di profilazione dei potenziali giudici e giurati. Solo recentemente è stata vietata in Francia la pratica di profilare i giudici per riuscire a prevederne le previsioni (L. 2019-222, art. 33, cfr. Romeo 2020, p. 119), sebbene questa attività sia molto lucrativa negli Stati Uniti (Corso 2008).

In uno dei testi fondamentali di filosofia del diritto, il filosofo e giurista inglese,  Herbert Hart ([1961] 2002) spiega che la normatività giuridica può essere compresa solo assumendo anche il punto di vista interno al partecipante al sistema giuridico. Il vincolo giuridico, spiega Hart, non può essere fatto discendere solo dalla paura della sanzione, perché sennò non ci sarebbe una distinzione fra la pressione psicologica di chi ti minaccia con una pistola alla tempia e il codice penale. La normatività giuridica presuppone una collettività che abbia introiettato le norme giuridiche a tal punto da sdegnarsi quando qualcuno le violi. Insomma, un margine di riflessività deve essere assunto nel cittadino destinatario della norma ma anche, a maggior ragione, nel funzionario pubblico chiamato ad applicarla (il poliziotto che insegue il ladro) e nel giudice chiamato ad interpretarla.

Non stupisce dunque che c’è chi preconizza che nel 2061 il management tecnologico soppianterà il diritto e sarà proprio il testo di Hart a scomparire dalle aule universitarie (Brownsword 2015).

L’eccesso di logica predittiva tuttavia non è solo un problema per la teoria del diritto ma solleva, a mio avviso, non poche perplessità anche per i principi fondamentali dello stato di diritto o, nella versione anglosassone, di rule of law. Il primo elementare tassello dello stato di diritto è il principio di legalità in virtù del quale nessuno può essere punito se non in forza di una legge che sia entrata in vigore prima del fatto commesso. Questo principio, che diventa ancora più rigoroso nel diritto penale, poggia sull’idea che la sanzione può essere inflitta solo quando la trasgressione si è verificata (con un’azione, il più delle volte, o con un’omissione, più raramente) e giammai perché esiste la probabilità che possa verificarsi.

Insomma, il diritto, per come noi lo conosciamo quantomeno dalle rivoluzioni di fine Settecento, assume che l’essere umano sia tendenzialmente libero: capace di comprendere il contenuto della norma giuridica, di adeguarvisi o di trasgredirla. L’idea di responsabilità giuridica riflette un’idea di responsabilità umana radicata proprio sulla libertà. È vero che sono molti i tentativi di contestare questo assunto negando la differenza strutturale fra responsabilità personale e responsabilità oggettiva e riducendo la responsabilità alla mera imputazione arbitraria, ma se si negasse qualsiasi capacità di scelta e di azione (e di comprensione), l’intero sistema che noi chiamiamo diritto comincerebbe a traballare. Diventerebbe difficile poi sostenere le libertà fondamentali contenute in molti testi costituzionali. Che senso ha infatti difendere la libertà di espressione o di religione, se lo stesso concetto di libertà viene negato?

 

Quali sono, a Suo avviso, i principali vantaggi e le criticità legate all’impiego di algoritmi in materia di giustizia predittiva? In che modo questi strumenti possono influenzare il processo decisionale giudiziario?

La capacità di formulare previsioni è tassello necessario di qualsiasi giudizio. I sistemi di apprendimento automatico possono amplificare questa capacità. In campo medico, le diagnosi di patologie o l’indicazione di terapie personalizzate possono essere calibrate sulle caratteristiche del paziente o sui risultati dei test cui costui si è sottoposto (Sartor, cit., p. 62-63). Il funzionario di banca rilascia un mutuo sulla base dell’affidabilità del cliente; il datore di lavoro assume formulando previsioni sul comportamento futuro del dipendente; il premio assicurativo è calibrato su alcuni indicatori che segnalano la propensione a commettere incidenti stradali. Gli esempi sono infiniti. Si tratta di sistemi che tuttavia mantengono un certo grado di fallibilità, allorquando intervengono fattori imprevisti (si pensi al debitore affidabile coinvolto in un dissesto finanziario cagionato dallo scoppio di una pandemia).

Anche il diritto è coinvolto nelle attività di previsione: questo vale sicuramente nel momento della formulazione della norma giuridica generale, della legge o del regolamento, ma anche per la decisione giudiziaria o per il provvedimento che riguardano il singolo. L’utilizzo della giustizia predittiva per misurare le probabilità di recidiva è ormai noto. La propensione al recidivismo viene calcolata combinando alcune caratteristiche del condannato (luogo di nascita, educazione familiare, test psicologici) con l’accertamento di reiterazione del reato già verificatasi. È a questo proposito che si è sollevato il problema della possibile discriminazione inserita nei meccanismi di funzionamento dell’algoritmo. Se infatti i dati a cui si attinge sono essi stessi frutto di pattern discriminatori (prevalenza di condannati da una certa provenienza etnica o geografica), allora la decisione algoritmica replicherà i bias già presenti nelle decisioni umane.

Ma il tema della profilazione solleva perplessità, a mio avviso, ulteriori rispetto alla questione, pur importantissima, delle discriminazioni algoritmiche.

Ancorare il giudizio su un soggetto giuridico alle sue caratteristiche specifiche, tratti di personalità, condizioni sociali e familiari, atteggiamenti ricorrenti, va nella direzione esattamente opposta al meccanismo di funzionamento del diritto che ha una storia millenaria e cioè la superficialità di giudizio. Quelle caratteristiche della decisione giudiziaria che ai profani del diritto lasciano spesso l’amaro in bocca, il senso di incompiutezza, il non essere andati troppo a fondo alla questione, perfino l’ipocrisia, sono proprio le modalità utilizzate dagli operatori del diritto (giudici, avvocati, funzionari pubblici) da millenni come motore del processo di civilizzazione. Il giudice che pronuncia la separazione dei coniugi non entra nelle pieghe private che hanno condotto alla crisi matrimoniale. Il giudice che accerta l’omicidio, non spende troppe udienze per ricostruire la storia personale dell’imputato. Il politologo americano Cass Sunstein, che pure plaude all’ingresso dell’IA nelle corti, auspica un ragionamento giuridico ispirato all’inibizione e al minimalismo, e cioè alla rinuncia ad una decisione perfettamente accurata in favore di un giudizio in qualche misura infuso dallo spirito di compromesso (Sunstein parla di accordi non completamente teorizzati, Sunstein 1999). Ora, la decisione giuridica radicata sulla profilazione del condannato o addirittura dell’imputato va nella direzione opposta a quella minimalista. Il giudizio probabilistico sull’indole a delinquere è esattamente agli antipodi dal dubbio ragionevole sull’azione compiuta, dubbio di fronte al quale il giudizio di condanna dovrebbe arrestarsi. La profilazione infatti richiede che si attinga ad una quantità di dati delle parti processuali che sarebbe impensabile se ci si attenesse alla vecchia antropologia che sottende l’impalcatura dei codici di procedura dove al giudice è addirittura precluso l’utilizzo della scientia privata.

La profilazione poi solleva questioni in relazione al principio di legalità. Se ne è fatto cenno alla risposta precedente. Per capire di cosa si tratti questa preoccupazione, si può dare uno sguardo al futuro, e cioè alle ipotesi ancora fantascientifiche,  ma non per questo da escludere in senso categorico, che troviamo nei romanzi di Philip Dick e nei film ispirati a questi romanzi (penso, ad esempio, a Minority Report).  Se la profilazione ci dà sufficienti informazioni sull’indole a delinquere di certi individui, perché non anticipare l’intervento giuridico ad una fase preventiva, sanzionando (o neutralizzando) non chi abbia compiuto qualcosa ma chi ha più probabilità di altri di farlo? È naturale che questo trend aprirebbe le porte a scenari totalitari.

 

Quali strumenti potrebbe offrire l’intelligenza ad un potere politico che vuole espandere le proprie prerogative? Ritiene che potrebbe mettere in dubbio un sistema democratico?

Il tentativo di replicare l’intelligenza umana con le macchine solleva questioni etiche molto rilevanti di cui non c’è spazio di trattare diffusamente. Gli esempi sono infiniti ma io ne farò solo due. Di recente,  l’University of Technology di Sydney ha sviluppato un sistema di decodificare pensieri silenziosi e trasferirli su testo scritto. Si tratta di un sistema per certi aspetti salvifico per le persone che non riescono a parlare, ad esempio perché affette da malattie, o colpite da ictus, paresi, o danni celebrali. Però, immaginiamo cosa diverrebbe di un sistema siffatto se finisse in mani sbagliate (nella polizia che vuole estorcere una confessione; nel dittatore che vuole silenziare l’opposizione; nel datore di lavoro che vuole conoscere i pensieri dell’impiegato, etc.). L’altro esempio è relativo alle profilazioni, tema di cui ci siamo occupati sopra. Esiste un sistema di IA che riesce a prevedere la possibilità di sviluppare problemi di salute mentale (depressione, disturbo bipolare, etc..) attingendo a dati pubblici, come le foto postate su Instagram e Tweets. Non è necessario dilungarsi sulle problematicità che potrebbero discendere per il diritto.

Il sistema di IA di certo aumenta il potere di chi detiene il potere. Spesso si tratta del potere politico (pensiamo ai sistemi di sorveglianza di massa con cui sono state silenziate le opposizioni a Hong Kong), ma può trattarsi anche del potere economico (le famose bic tech), ovvero di quello che Bobbio definiva il potere ideologico (la stampa, i mezzi di comunicazione, etc.).

Le interferenze dei sistemi di IA sulle procedure di formazione del consenso elettorale sono diventate celebri a seguito dello scandalo che ha coinvolto Cambridge Analytica, ma gli esempi sono parecchi e purtroppo tutt’oggi estremamente efficaci.

La profilazione aiuta i governi a schedare i cittadini e a scongiurare la commissione di alcuni reati. Frodi fiscali, inadempimenti, furti, omicidi potranno in un futuro più o meno prossimo essere evitati o contrastati con telecamere sempre più sofisticate, con sistemi di riconoscimento facciale, con meccanismi di tracciamento di merci rubate e contraffatte, con la vigilanza su individui considerati a rischio di commettere reati.

Si aggiunga che la delega alla macchina di un numero sempre maggiore di scelte micro e macro può finire con l’intorpidire lo spirito critico e quindi allentare la vigilanza nei confronti di chi detiene il potere. Come ben sapeva Aristotele, la capacità di deliberazione morale si sviluppa soltanto attraverso l’esercizio.

 

In che modo l’intelligenza artificiale può interferire nei sistemi elettorali? Ritiene che l’adozione dell’IA in questo contesto comporti più benefici o rischi, specialmente dal punto di vista etico e giuridico?

L’IA sta portando enormi benefici all’umanità. Essere puramente pessimisti significherebbe non riconoscere l’importanza di questi progressi in ambiti svariati, dalla medicina, alla agricoltura, alla costruzione di autoveicoli, alla conformazione delle nostre abitazioni. Come spesso accade, tuttavia, il progresso scientifico porta con sé anche dei rischi oltre che dei vantaggi. Non è un caso che l’AI Act già citato differenzia la regolamentazione dei sistemi di IA in relazione ai rischi che essi comportano. Sotto questo profilo, rimane valido il monito del filosofo Hans Jonas, di riformulare il principio di responsabilità kantiano in modo da considerare anche le generazioni future e comunque i rischi per l’umanità (Jonas 2009).

Difficile formulare congetture sul futuro. Di certo, le ipotesi della singolarità e di macchine superintelligenti, disposte magari a sacrificare l’uomo per salvare il pianeta, è spaventosa. Così come suscita grande angoscia l’idea di una massa enorme di disoccupati le cui funzioni vengono rimpiazzate dalle macchine (Susskind 2018).

Ma l’IA consente anche l’operazione inversa: non solo offre uno strumento di controllo sui cittadini e sugli oppositori politici, ma anche uno strumento di tutela, perfino di difesa. Già circolano sistemi di IA che suggeriscono se pagare o meno una multa, proprio sulla base del calcolo probabilistico dell’efficacia della sanzione (DoNotPay). L’IA che profila i cittadini, può anche profilare giudici, forze dell’ordine, candidati alle elezioni, ministri.

La letteratura sull’IA e specialmente sulle questioni etiche che essa solleva, mi fa venire spesso in mente un passo del Fedro di Platone sull’invenzione della scrittura. Un dio dell’antico Egitto di nome Theuth propone al re del luogo le sue invenzioni. Ha inventato il calcolo, i numeri, il gioco dei dadi, e anche l’alfabeto. Theuth esprime apprezzamento o preoccupazione per ciascuna delle arti, e, quando tocca all’alfabeto e cioè all’invenzione della scrittura, ne è esprime due in particolare: la prima è che la scrittura soppiantando la cultura orale genererà perdita di memoria; la seconda è che il discorso messo per iscritto arriverà alle mani di tutti, tanto di chi l’intende, tanto di chi non sa che farsene, ma che tuttavia si sentirà in potere di dire la sua. Ne seguirà una gran confusione. Socrate / Platone approfitta della storia per ribadire l’importanza dei maestri e cioè dei filosofi.

L’invenzione dell’IA forse avrà un’importanza simile a quella della scrittura. Noi possiamo cogliere il suggerimento di Socrate (magari prescindendo dal tono elitario di Platone) ed auspicare che l’intelligenza naturale, di tutti e non solo dei filosofi, continui a svolgere il proprio ruolo: non solo allertando sui possibili rischi di alcune innovazioni per la tutela di certi diritti (libertà, riservatezza ed eguaglianza, innanzitutto), ma anche promuovendo la cd. Human Centered AI. Per entrambi gli obiettivi, i giuristi (in carne ed ossa) avranno un ruolo fondamentale.

 

Bibliografia

Brownsword, In the Year 2061: From Law to Technical Management, in Law Innovation & Technology, 7(1), 2015, pp. 1-51

Corso L., Giustizia senza toga. La giuria e il senso comune, Giappichelli, 2008

Hart, H., Il concetto di diritto, [1961], Einaudi, 2002.

Jonas, H. Il principio di responsabilità. Un’etica per la civiltà tecnologica, Einaudi 2009.

McCarthy, J., What Is Artificial Intelligence, Stanford University, 2007

Romeo, F. Giustizia e predittività. Un percorso dal machine learning al concetto di diritto, in Rivista di filosofia del diritto, IX,1 2020, pp. 107-124.

Sartor, G. L’intelligenza artificiale e il diritto, Giappichelli 2022

Susskind, J. Future Politics. Living together in a world transformed by tech, Oxford, 2018.

 

 

 

 

Back To Top