skip to Main Content

Etica e bias dell’intelligenza artificiale. Intervista al prof. avv. Enrico Caterini ed al prof. avv. Ugo Ruffolo

Enrico Caterini è professore ordinario di Diritto privato all’Università della Calabria, dove coordina il corso di Giurisprudenza. È autore di L’intelligenza artificiale «sostenibile» e il processo di socializzazione del diritto civile (Edizioni Scientifiche Italiane).

Ugo Ruffolo è avvocato e professore ordinario di Diritto civile all’Università di Bologna. Ha curato il volume Intelligenza artificiale. Il diritto, i diritti, l’etica (Giuffrè Francis Lefebvre).

L’Unione europea ha presentato lo scorso febbraio la sua strategia per il digitale, riservando un’attenzione particolare – con un apposito libro bianco – all’intelligenza artificiale. L’approccio europeo nei confronti di questa tecnologia è diverso da quello di Stati Uniti e Cina: Bruxelles sta infatti dando molta più attenzione all’aspetto etico e alla tutela dei diritti umani. Perché è così importante insistere sull’etica quando si discute di intelligenza artificiale?

Prof. Avv. Enrico Caterini (E.C.): È molto importante l’etica della vita automata. Sono molteplici i profili nei quali si pongono questioni etiche. Vi è un’etica della progettazione e costruzione delle macchine, e un’etica incorporata nella macchina tale da porla in grado di comportarsi in modo moralmente controllato. La seconda è strettamente connessa alla capacità di autodecisione della macchina. Si affaccia l’esigenza di «richiedere spiegazione e trasparenza nelle scelte operate dagli algoritmi sia in senso epistemico sia in senso giuridico (come ha ragionato nella decisione? Di chi è la responsabilità dell’azione?)». Per esempio, nella crescente predizione prognostica della medicina predittiva computazionale, in caso di emergenza, è ancora necessario il consenso informato del paziente? Cosa fare prevalere, l’autonomia del paziente o la predizione prognostica? Le risposte implicano l’intellegibilità della macchina. Posto che la c.d. «legge zero» di Asimov pone «il bene dell’umanità» come l’imperativo categorico e operativo, primo e superiore ad ogni robot, l’autonomismo indeterministico dell’azione macchinica non può che implicare anche questioni giuridiche. Di questo passo è inevitabile intravedere una soggettività giuridico-elettronica, titolare di situazioni e rapporti giuridici propri. Inoltre, è la macchina ad essere essa stessa artefice di un dialogo con l’essere umano, ovvero, con altre macchine dotate di autonomia decisionale e di conoscenza. Emerge il bisogno di intelligibilità degli algoritmi, di disambiguazione delle azioni delle macchine intelligenti, di verificabilità delle scelte etiche contenute nella computazione. Si ripropone l’insegnamento Kantiano che ogni agente morale deve rendere ragione delle proprie azioni, di tal ché la macchina che decide e conosce deve spiegare le giuste ragioni delle sue azioni.

Dunque, la dimensione etica dell’automazione si traduce in quella della doverosità che si assume come elemento costitutivo della prima. Doverosità da intendersi non soltanto nel suo portato etico ma anche in quello giuridico, cioè in quell’interesse o valore che integra una delle situazioni giuridiche inderogabili definite dall’art. 2 cost. Tuttavia, la sinderesi dell’algoritmo e dei sistemi automati riconosce i doveri nella sola misura che hanno formato oggetto della programmazione, e ciò esprime il limite giuridico dell’automazione. Ogni sistema di programmazione implica una tipizzazione comportamentale, una forma di neo-codificazione, ma i codici che il diritto conosce sono affidati all’intelligenza umana che ne adegua gli scopi alla esperienza fattuale nella sua variabilità sterminata, mentre nei codici algoritmi l’automazione può divenire autonomizzazione e l’agente software conquistare margini crescenti di autodecisione. È pur vero che la potenza computazionale è superiore a quella umana ma la prima non sempre è posta nelle condizioni di esprimere giudizi di valore. Ciononostante essa è chiamata a decidere l’incalcolabile e l’imprevedibile assumendo su di sé il rischio delle conseguenze negative della decisione. All’autodecisione deve seguirne giuridicamente la responsabilità. L’elemento fattuale offerto dalla scienza matematica non è sufficiente a se stesso e, al contempo, non è prevedibile in assoluto per esaurirsi in una qualsiasi forma di tipizzazione.

La questione etica prende anche un’altra conformazione. L’uomo bionico può dirsi tale perché assume in sé la potenza e le potenzialità di un insieme indeterminato di uomini, ovvero, di un uomo che non è se stesso ma quello prescelto secondo caratteristiche e qualità predeterminabili. La massa di informazioni di cui dispone ogni uomo grazie all’AI è quella altrimenti posseduta da moltissimi uomini. Le limitazioni della fisiologia e patologia umana sono volontariamente integrate, recuperate, superate. La persona intravede l’invincibilità; la diversità umana non è più soltanto per natura ma anche per scelta. Questi due sviluppi mutano dal profondo l’umanità. Essa, più potente, assume la condizione estatica di sfida della Verità e di smarrimento del senso di limite. I concetti di soggettività, capacità e personalità mutano. Se la soggettività ha sinora incluso e distinto la persona (rectius l’uomo) dal soggetto giuridico personificato, e la prima, dalla personalità quale svolgimento dinamico di se stessa, la capacità ha rappresentato la declinazione in termini di poteri delle persone umane e giuridiche. L’interpolazione dell’intelligenza artificiale ha introdotto mutazioni dell’intelligenza umana capaci di integrarne i poteri e le potenzialità sino a mutare il rapporto tra la persona umana e quella giuridica. L’intelligenza umano-artificiale consente all’uomo potenzialità altrimenti inesprimibili che incidono sulla naturale singolarità e diversità umana. Le differenze cessano di essere un dato dell’umanità per divenire un dato della volontà. L’intelligenza è [in parte] dipendente dalla volontà. In altri termini, il potere della volontà sopravanza l’intelligenza naturale dell’uomo per incidere in essa. La natura naturata diviene vieppiù natura naturante. La capacità di volere si espande e determina sempre di più quella di intendere generando un senso che va dalla prima verso la seconda. Lo spazio di azione della personalità è di molto crescente rispetto a quello della persona. Si profila anche una ulteriore questione di sostenibilità sociale se soltanto si considera la non accessibilità universale dell’uomo all’intelligenza umano-artificiale. La questione diviene un tema di diritti universali dell’uomo inteso come opzione esistenziale di qualità della vita.

Prof. Avv. Ugo Ruffolo (U.R.): In tema di intelligenza artificiale, le istanze tecno-etiche di settore di chi invoca più elevati livelli di accountability, trasparenza ed explainability della “macchina intelligente” sono fondamentale espressione dei (talora fondati) timori che l’impiego di A.I. conduca ad esiti pregiudizievoli ed anche violativi dei diritti del singolo; timori dei quali il legislatore e l’interprete non possono non tenere conto.

Le esigenze etiche sono, così, ben suscettibili di condizionare la mediazione giuridica del fenomeno. L’analisi tecno-etica delle problematiche di settore è, dunque, essenziale bagaglio del legislatore come dell’interprete, ma a patto di inserirsi in complessive visioni globali e d’insieme, e di non divenire semplicistica scorciatoia verso soluzioni contingenti e settoriali. I profili etici sono determinanti anche per il giurista, ma troppo spesso rischiano di risultare sia distorti che distorsivi perché analizzati con visione episodica, invece che valorizzati su un più generale piano sistemico. Si invocano, così, norme nuove e specifiche per ciascun “microcosmo” di applicazione dei sistemi di A.I., rincorrendo di volta in volta il preteso “massimo etico”, ma con il rischio di generare inquinanti antinomie di sistema ed anche esiti disincentivanti del progresso tecnologico.

Mi spiego, con un esempio che viene spesso richiamato come case study delle problematiche di traduzione in tecno-diritto delle istanze tecno-etiche in tema di A.I.: quello dei veicoli autonomi (ne parlo in un mio contributo nel recente volume a mia cura Intelligenza artificiale. Il diritto, i diritti, l’etica, Giuffrè Francis Lefebvre, 2020).

Sono molteplici le proposte di innovazioni normative di settore, ispirate al noto “trolley problem”. Si vorrebbe, così, imporre, per il caso di “collisioni inevitabili”, una programmazione della guida “intelligente” che, nella scelta fra sacrificare gli occupanti o invece i pedoni, privilegi gli uni o gli altri a seconda di criteri quali l’età dei soggetti coinvolti, censendo la presenza ed il numero, ad esempio, di minori a bordo o su strada. Anche prescindendo dal fatto che una tale programmazione del sistema di guida condurrebbe ad inammissibili discriminazioni per età (specificamente censurate anche dalla Ethik Kommission tedesca in un rapporto del 2017), e rischierebbe persino di esporre il produttore a responsabilità da prodotto difettoso, teniamo in considerazione che subordinare la circolazione di veicoli self-driving o driverless alla presenza di un sistema in grado di discernere l’età dei bystander e delle persone a bordo significherebbe ritardare di lustri l’adozione di una tecnologia già disponibile e che, già oggi rende i veicoli autonomi più sicuri del 90% rispetto alla guida umana.

La commissaria Margrethe Vestager ha detto che l’intelligenza artificiale non è né buona né cattiva di per sé, e che tutto dipende dall’utilizzo che se ne fa. Condivide questa affermazione? Si sente parlare spesso dei bias, dei pregiudizi di partenza degli algoritmi: può aiutarci a capire meglio la questione?

U.R.: Condivido la affermazione della commissaria Vestager; e aggiungo che, nel determinare se l’A.I. ci libererà dal bisogno o ci asservirà divenendo l’“ultima invenzione dell’uomo” (come sostengono Bostrom e Hawking), un ruolo centrale sarà ricoperto dalla mediazione giuridica che riceveranno le meritevoli istanze tecno-etiche di settore.

I bias (più o meno ineliminabili) dei sistemi di autonomous decision-making costituiscono un serio problema, a ragione denunciato da più di un esperto di settore; ed i connessi rischi rappresentano, oggi, uno dei maggiori ostacoli che si frappongono al vasto impiego dell’A.I. in ambiti fondamentali dell’agire umano, dal settore sanitario alla pubblica amministrazione, sino al settore giudiziario. Il problema si interseca, poi, con la denunciata mancanza di trasparenza di taluni sistemi di A.I., la quale rende difficilmente conoscibile l’iter logico seguito dalla macchina nell’addivenire ad una decisione e, dunque, individuare suoi eventuali bias. Si pensi ai noti casi dei provvedimenti amministrativi algoritmici di trasferimento di sede degli insegnanti, annullati dai giudici amministrativi perché adottati secondo iter logici non trasparenti. E, in tema di explainability e bias, si pensi ancora ai noti casi statunitensi di impiego di A.I. nel settore della giustizia, ad esempio per la previsione della recidiva, ed agli esiti almeno apparentemente discriminatori che ne erano derivati.

Divengono, dunque, centrali le esigenze di garantire elevati standard di trasparenza degli algoritmi che animano i sistemi di A.I. e, in generale, dei processi decisionali autonomi della macchina; specialmente in settori ad elevato rischio per i diritti dell’individuo (il Prof. Alberto Gambino, in un suo saggio nel suddetto volume a mia cura, parla di una “transparency by design”, di esigenze di trasparenza di cui tener conto sin dalla progettazione della macchina). In questo senso si è espresso anche il Libro Bianco pubblicato dalla Commissione europea nel febbraio 2020.

E.C.: Se l’algoritmo è l’espressione matematica nella quale si combinano i flussi informativi prescelti dall’autore, il quale ne governa con libertà e scienza le scelte ai fini degli obiettivi definiti, in esso non può non intravedersi la medesima libertà del ricercatore che, nel processo di accumulo di informazione, in partenza contraddittori e caotici, procede per gradi alla sistemazione di essi secondo una linea interpretativa e ricostruttiva volta a dimostrare la composizione di un sistema ordinato e coerente. Il processo intellettuale è il medesimo, sebbene svolto ricorrendo a linguaggi comunicativi differenti. Allo stesso tempo, non può dubitarsi che nel complesso informativo oggetto di elaborazione sono contenuti interessi e valori, la cui composizione a sistema implica delle scelte che l’«elaboratore», umano o macchinico, esegue secondo criteri di ponderazione che la trasparenza del processo consentirà di controllare e valutare a posteriori. L’agire elaborativo dell’autore dell’opera intellettiva, a prescindere dal linguaggio impiegato, volge inevitabilmente a definire regole o, meglio, un apparato regolativo, la cui attuazione subisce sorti plurime a seconda che siano affidati alla «forza automata», ovvero, all’uomo. Dunque, l’algoritmo, e ciò che ne deriva, sono propriamente sede di manifestazioni di autonomia, ossia di capacità di produrre regole. Regole che si avvalgono dell’uso del linguaggio matematico e della propulsione dell’energia elettrica per darvi attuazione, ovvero, per consentire decisioni a loro volta anche provviste di autonomia. Tale considerazione induce a distinguere in base alle regole prodotte i gradi di libertà dell’autore di connessioni sintetiche delle informazioni elaborate, regole che saranno destinate a finalità molteplici, tutte contenenti composizioni di interessi e valori da sottoporre ai giudizi di meritevolezza e sostenibilità. È come dire che l’uomo, nel momento di elaborazione di un risultato dell’intelletto, comunicato a mezzo di uno dei linguaggi a sua disposizione, contenga «più informazione (+ logos) e […] al contempo più indeterminazione (+caos), e in questo impasto magnifico e terribile di maggiore informazione che chiamiamo ragione e di maggiore indeterminazione che chiamiamo libertà consiste l’essere umano, capace di bene e capace di male, e per questo alla ricerca di un punto di equilibrio che possiamo chiamare giustizia, la cui elaborazione possiamo chiamare diritto». La regola prodotta anche con il linguaggio algoritmico dev’essere in quanto tale giusta. Ciò tanto quando persegue l’interesse generale che quello particolare. Dunque, l’autonomia negoziale «algoritmica» funzionalizza la libertà di ricerca verso una regola pattizia o normativa meritevole e giusta. In questo processo dell’intelligenza umana e macchinica si colloca il bias cognitivo. Una deformazione, un adattamento, una curvatura nella lettura dei flussi informativi che esprimono una rappresentazione della realtà differente da sé. Per l’uomo un deficit di coscienza intesa come saggezza e giustizia, per la macchina una distorsione dei fattori ordinanti del caos informativo.

In siffatto contesto di vita automata il bias incide finanche sui paradigmi della concezione democratica. Concentrato il dialogo sui dati più che sulle idee, la democrazia rischia un processo di caducità valoriale che la riduce a procedimento, a metodo decisionale. I nodi istituzionali della vita democratica rischiano di risultare svuotati dei contenuti decisionali, deputati a meri vestimenta. La concentrazione della rilevanza sui dati, separatamente dai valori decisionali, rischia di generare due sfere incomunicanti ove quella informativa detta una logica aletica potenzialmente disattesa dalla sfera della decisione. L’emersione della sinapsi tra le due sfere muta la concezione democratica e dà rilievo alla sostanza aletica quale presupposto ineludibile della dimensione politica. Si afferma il diritto «alla scienza», il diritto dell’«uomo aletico», inteso come il diritto al «dato vero» quale presupposto per l’esercizio del principio democratico. La «libertà di scienza», affermata nell’art. 33 cost., assume una funzione preparatoria del «diritto alla scienza» come diritto fondamentale dell’uomo. L’uomo ha il diritto di accesso alla scienza e alla tecnica intese come verità «approssimative». Una verità, quella scientifica e tecnica, che deve saper coniugare la essenzialità dei princìpi con la concretezza dell’agire; che pone l’uomo al centro di ogni progettualità sociale e rifiuta la radicalità delle antitesi per la ricerca del punto di «compromissione». Da qui l’esigenza di una democrazia «mediata» o indiretta per come espressa dall’art. 1 co. 2 cost. Più il dato scientifico campeggia nella decisione politica, più questa è chiamata a mediare i molteplici interessi coinvolti abiurando ogni manicheismo. Al contempo più la vita umana diviene aletica, più il diritto alla scienza si afferma come diritto fondamentale dell’uomo e presupposto indeclinabile della scelta politica. Pertanto, la sinapsi tra la sfera della verità e quella della scelta non deve consentire la sostituzione dell’una ai danni dell’altra. Le due sfere conservano un’autonomia dipendente, ove l’una alimenta, senza fagocitare, l’altra.

Ma il diritto «scientifico» alla verità se da un lato ipertrofizza il consapevole dominio dell’uomo su se stesso, dall’altro non potrà risolvere quella «consapevolezza sfingetica ed impenetrabile» della caducità umana, della finitudine quale limite ultimo ed insuperabile della predizione. L’intelletto razionale intravede, traguarda, ciò che non può raggiungere, di talché subodora la verità vera dell’uomo.

Back To Top