skip to Main Content

Intervista al Prof. Francesco Astone. Modelli e principi normativi per gestire e regolamentare l’Intelligenza Artificiale nell’Area Europea.

Il Prof. Francesco Astone è Professore Ordinario presso il Dipartimento di Giurisprudenza dell’Università degli Studi di Foggia. Laureatosi cum laude nel 1985 presso l’Università La Sapienza di Roma, ha ottenuto l’idoneità ai concorsi per Professore Associato nel 2006 e per Professore Ordinario nel 2013.

Oltre alle sue eccellenti qualifiche accademiche, il Prof. Astone ha una vasta esperienza nel campo giuridico. Ha guidato il progetto di ricerca “ESG and the Rise of the Intangible Economy” e coordinato il progetto sui “Contratti nell’economia delle piattaforme.” Ha tenuto corsi come Diritto Civile e Legislazione dell’Informazione e del Commercio Elettronico presso l’Università di Foggia.

Le sue competenze spaziano su diversi settori del diritto, tra cui Principi Generali, Clausole Generali, Interpretazione, Rapporti Giuridici, Diritto dei Consumatori, Rapporti tra Imprese, Obbligazione, Contratti, Privacy, Informatica Giuridica e Artificial Intelligence. Il Prof. Astone ha partecipato attivamente a numerosi convegni e seminari, dimostrando un impegno costante nel condividere e approfondire la sua vasta conoscenza giuridica.

 

  Il Prof. Francesco Astone

 

L’intelligenza artificiale è un fenomeno ormai pervasivo: ne conosciamo innumerevoli impieghi altamente specialistici e noi stessi, nella vita di tutti giorni, ne sperimentiamo direttamente le potenzialità. Sappiamo tuttavia che esistono rischi e si producono danni. Come reagisce la disciplina della responsabilità civile di fronte a queste criticità?

L’Intelligenza Artificiale ha riproposto una dinamica nota, che tipicamente ricorre quando l’uomo sperimenta nuovi trovati tecnologici. La necessità di fondo è quella di stabilire il confine tra lecito e illecito: quando una nuova tecnica consente all’uomo qualcosa in più o qualcosa di diverso rispetto al passato, si tratta anzitutto di comprendere se quel qualcosa rimanga nell’area del lecito o vado ritenuto illecito. E, se si tratta di attività lecita, si tratta comunque di comprendere se e come vadano trattati i danni che derivano dallo svolgimento alla nuova tecnologia sono derivati. In tempi recenti, i dibattiti che si sono aperti su temi che spaziano dall’informatica alla procreazione medicalmente assistita, dall’energia nucleare alle modifiche genetiche, rappresentano esempi molto diversi tra loro, di cui è tuttavia chiaro il comune denominatore. Il punto è stabilire quando intervenire con divieti, quando con limitazioni, quando lasciare libertà ai privati imponendo tuttavia una responsabilità per i danni. Quando non vengano in gioco problematiche tali da indurre a considerare comunque illecito il ricorso a determinate tecnologie (la procreazione medicalmente assistita può rappresentare un valido esempio), il problema si sposta sui rischi e i danni che la nuova tecnologia comporta: in quale misura devono gravare su chi quella tecnologia ha prodotto o comunque su chi ne ha reso concretamente possibile l’utilizzo? In quale misura devono gravare invece sui singoli utenti che fanno ricorso ad essa? In quale misura ancora sui terzi che, pur non utilizzandola in modo diretto, si trovano esposti ai rischi che essa comporta?

Problemi notissimi e la responsabilità civile è l’istituto che meglio di ogni altro svolge la funzione di distinguere il lecito dall’illecito, stabilendo come debbano essere allocati i rischi ed i costi che il ricorso ad una nuova tecnologia comporta. Perché, più ancora delle norme incriminatrici, per incoraggiare un’attività o, al contrario, ostacolarla e anche inibirla del tutto, è l’allocazione dei rischi e dei danni – e dunque il sistema dei costi – a risultare determinante. Ed è appunto la responsabilità civile ad occuparsi di tutto questo. Stabilire che l’originario produttore di una tecnologia o le imprese che ne consentono la pratica applicazione ed il largo utilizzo siano sempre e comunque responsabili di tutti i danni che il ricorso a quella tecnologia comporta può significare scoraggiare la ricerca o comunque scoraggiare la diffusione e l’impiego dei prodotti di quella ricerca. Al contrario, imporre regole di responsabilità che limitative dei risarcimenti significa contribuire alla diffusione di quella tecnologia appunto in quanto consente di renderla fruibile, trarne profitto e tuttavia non sostenere tutti i costi che essa comporta. I criteri che governano la responsabilità civile tendono – tradizionalmente – ad evitare questa meccanica imputazione di responsabilità, appunto per evitare freni all’inventiva, all’innovazione, alla scoperta. Il nostro Codice civile rappresenta in modo esemplare tutto questo: la regola generale prevede che la responsabilità sussista solo in ipotesi di condotte «dolose o colpose», in presenza di un nesso causale immediato e diretto, e sempre che si tratti di danni da considerare «ingiusti» (art. 2043 c.c.).

Se ai rischi e ai danni che possono derivare dal ricorso all’Intelligenza Artificiale dovessero essere amministrati puramente e semplicemente applicando questa disposizione, sarebbe come dire che i produttori di bene e servizi che fanno ricorso ad essa e la pongono a disposizione del pubblico non debbano rispondere dei danni che cagionano. In presenza di sistemi tecnologicamente complessi, e segnatamente di fronte all’intelligenza artificiale, che di per sé rappresenta un sistema ‘opaco’, parlare di ‘colpa’ ed onerare il danneggiato della relativa prova, significa infatti ridurre se non azzerare del tutto le concrete possibilità di ottenere un risarcimento. E la consapevolezza di ciò potrebbe a sua volta implicare scarsi investimenti in prevenzione, da un lato, e tuttavia anche scarsa fiducia e quindi, nel medio periodo, scarsa diffusione della tecnologia tra il pubblico. Ma anche queste implicazioni del discorso sono note ed evidenziano l’impatto politico che queste regole normalmente assumono: le regole di responsabilità civile non sono mai ‘neutre’ ed orientano la società non solo delineando il confine tra il lecito e l’illecito, ma anche indicando le attività che si vuole favorire rispetto ad altre che si intende invece lasciare marginali. Che la regola della responsabilità possa risultare sbilanciata in favore delle imprese, era già, del resto, al tempo dei lavori preparatori del Codice civile, tanto che furono introdotte una serie di regole ulteriori, capaci, con particolare riguardo alla colpa, di alleggerire l’onere della prova richiesto ai danneggiati.

Il riferimento è in particolare alla disposizione relativa alle «attività pericolose» – che erano allora determinate attività industriali – che esonera il danneggiato dalla prova della colpa e chiede piuttosto al danneggiante di provare di avere assunto «tutte le misure idonee ad evitare il danno» (art. 2050 c.c.). Quella regola era apparsa, pochi anni prima, nel Codice della Strada (1930) ed è stata poi trasfusa nell’art. 2054, co. 1, c.c., per fronteggiare gli incidenti da causati dal nuovo trovato tecnologico di quel tempo, che era appunto l’automobile. Fare a meno della colpa era importante, appunto in quanto per il danneggiato provare la colpa del conducente – segnatamente se si considera il contesto di allora – è praticamente impossibile ed è per questo che l’onere di prova doveva ricadere su di lui. Oggi occorre chiedersi se quella disposizione possa ancora risultare di utilità con riguardo all’intelligenza artificiale, come molti ritengono, ovvero, se per creare un sistema più equilibrato, non sia necessario immaginare regole diverse, di maggior favore per i danneggiati. Nel contesto delle valutazioni che a questo riguardo è necessario operare, occorre tra l’altro chiedersi se regole risarcitorie più stringenti possano o meno rappresentare un freno che gli operatori di questi settori: in passato, la sostanziale esenzione dalla responsabilità di alcune attività si giustificava appunto con il tentativo di favorire la nascente industrializzazione, i cui effetti negativi sono rimasti – occorre dire – privi di rimedi. Oggi è da chiedersi se situazioni di questa possano ancora ritenersi giustificate e sostenibili.

 

 

Sembra di intendere – da questa prima risposta – che le regole del Codice civile non siano adeguate ai rischi che l’intelligenza artificiale comporta. Diventa allora particolarmente significativo considerare il quadro europeo: l’Europa sta andando in una direzione diversa? E quali differenze di impostazione di registrano tra l’impostazione europea e quella italiana?

L’Unione Europea considera con molta attenzione il tema dell’intelligenza artificiale e questa è già una differenza notevole rispetto al contesto nazionale, che, per la verità, sembra cronicamente in ritardo nel proporre nuove soluzioni e preferisce lasciare alla giurisprudenza il compito di seguire l’evoluzione sociale sfruttando l’elasticità delle disposizioni del Codice. Tuttavia, l’attenzione con cui il tema viene considerato ha prodotto una pluralità di documenti che manifestano linee di pensiero diverse, non sempre contemperabili tra loro: si insiste sulle opportunità che l’Intelligenza Artificiale consente di raggiungere e si comprende che, anche rispetto agli altri grandi players di questo mercato (gli U.S.A., la Cina, altri paesi asiatici emergenti), l’Europa non intende assolutamente rimanere indietro. Al contempo, tuttavia, sussiste consapevolezza dei rischi e riemerge la tendenza ad affermarsi come modello nell’ambito dei diritti, delle garanzie, delle tutele, che rappresentano valori da non sacrificare allo sviluppo tecnologico o alla crescita economica. Occorre quindi contemperare finalità diverse e le difficoltà di questo bilanciamento sono evidenti. Si ritrova, tuttavia, anche a questo riguardo, un aspetto caratteristico del modo di porsi, del diritto, oggi: si è ormai avvertiti della complessità dei problemi e dell’impossibilità di fornire risposte generali, con pretesa di universale validità. Occorre dunque produrre complessi di regole sufficientemente elastiche, che tuttavia non escluda di vietare in modo assoluto talune particolari attività ed ammetterne a talune condizioni altre.

A livello europeo, la difficoltà di operare il bilanciamento di cui si diceva ha prodotto una difesa del modello della responsabilità del produttore (dir. 85/374/CEE), che, almeno in una prima fase, si è pensato di estendere all’Intelligenza Artificiale: questa è la posizione recepita dalla Proposta di Regolamento sull’Intelligenza Artificiale COM(2021) 206 final. Si tratta di un modello che si caratterizza per ascrivere al produttore la responsabilità per il prodotto difettoso a prescindere dalla colpa e, tuttavia, al danneggiato l’onere di provare il difetto, il danno, la connessione causale tra difetto e danno. Su questa regola di base s’innestano una serie di regole ulteriori, che da un lato agevolano la posizione del danneggiato (così, ad es., quando si dice che il prodotto è difettoso quando non offre la sicurezza che ci si poteva legittimamente attendere tenuto conto delle circostanze del caso ed in relazione ai possibili usi a cui poteva essere ragionevolmente destinato), dall’altro limitano la responsabilità del produttore (segnatamente laddove esclude per definizione la pericolosità quando lo stato delle conoscenze scientifiche e tecniche non permettevano di considerare il prodotto come difettoso). L’Unione Europea si mostra soddisfatta dei risultati di questa disciplina e tuttavia la loro valutazione non è agevole: la casistica è limitata e questo porta taluni a ritenere che questo si un sintomo di reale efficacia di questa disciplina, che avrebbe indotto i produttori ad elevare gli standard di sicurezza dei loro prodotti e così prevenire il contenzioso, mentre, secondo altri sarebbe un segno della sua scarsa efficacia, appunto in quanto le difficoltà probatorie sarebbero tali scoraggiare le iniziative dei consumatori danneggiati.

Fermo che il nostro ordinamento ha recepito la direttiva sui prodotti difettosi attraverso il Codice del consumo e che pertanto sussiste, su questo punto, un allineamento assoluto tra l’Italia e l’Europa, è difficile dire se l’applicazione della direttiva sulla responsabilità da prodotto possa realmente rappresentare una soluzione soddisfacente.  Una serie di argomenti di un certo peso suggerisce tuttavia che non si tratti di una soluzione adeguata. Intanto, la disciplina della responsabilità da prodotto difettoso presuppone una serie di regole sulla sicurezza dei prodotti, che in Europa subiscono una serie di controlli preventivi che – con riguardo all’Intelligenza Artificiale – non potranno mai essere realizzati, per la stessa natura del prodotto e le difficoltà tecniche che comporterebbero. Inoltre, la nozione di difetto – intuitiva a proposito di molti prodotti tradizionali – è più difficilmente riferibile all’intelligenza artificiale ed anche la prova del nesso causale tra l’illecito ed il danno può riservare grandi difficoltà. Si tratta pertanto di comprendere quanto l’Unione Europea voglia effettivamente incentivare la ricerca, in vista di profittevoli occasioni di mercato assicurate da un regime di sostanziale esenzione dalla responsabilità civile, capace di avvicinare al mercato anche imprese patrimonialmente incapaci di sostenere rischi di quella portata (come del resto è avvenuto al tempo della prima rivoluzione industriale o dello sviluppo del traffico aereo), e quanto invece voglia consentire lo sviluppo dei soli sistemi ragionevolmente sicuri, sviluppi da imprese capaci di sopportarne i rischi.

Rimane il fatto che proprio le difficoltà di prova che il ricorso alla disciplina della responsabilità del produttore può riservare può incentivare i danneggiati ad avvalersi ancora dei rimedi fondati sulla colpa e segnatamente ad avvalersi dalle regole che invertono l’onere della prova o consentono di presumere la responsabilità del danneggiante. In Italia, il discorso torna alla disciplina dettata per le attività pericolose ed alla possibilità di ribaltare sul produttore l’onere di dimostrare di aver preso tutte le misure idonee ad evitare il danno (art. 2050 c.c.), può rimanere un punto di riferimento importante. Sotto questo profilo, anzi, si apprezza il fatto che la disciplina di diritto italiano offre probabilmente uno standard di protezione più elevato per i danneggiati (benché potenzialmente disincentivante per le compagnie con sede in Italia). Tuttavia, non bisogna commettere l’errore di limitare l’attenzione all’elemento soggettivo e cioè all’onere della prova della colpa, o delle misure assunte per evitare il danno, o ancora del difetto del prodotto, posto che anche il modo di intendere gli ulteriori presupposti dell’illecito e, segnatamente, la prova del nesso causale, sono dirimenti. E non si deve neanche cadere nell’ulteriore errore di ritenere che – su tutti questi aspetti o, se si vuole, su tutti i presupposti della responsabilità civile – la disciplina legislativa possa risultare effettivamente decisiva a prescindere dal modo di operare della giurisprudenza: nell’originario sistema del Codice italiano, così come in quello della direttiva sui prodotti difettosi, il modo in cui i giudici intenderanno concretamente utilizzare la responsabilità civile risulterà sempre e comunque decisivo e basterà allargare o restringere il modo di intendere il difetto o, in particolare, il nesso tra il difetto e il danno ed ancora la colpa o le misure idonee ad evitare il danno per raggiungere l’una o l’altra soluzione.

 

 

La difficoltà di contemperare un sano sviluppo delle imprese che operano nel settore dell’Intelligenza Artificiale e tuttavia tutelare utenti e, in modo particolare, i terzi che potrebbero subire danni è chiara e chiara è al tempo stesso la difficoltà che l’Unione Europea sta incontrando su questo terreno. Non è dunque possibile assicurare la sicurezza dei prodotti che si basano sull’intelligenza artificiale? Di quali sfide devono farsi carico le imprese che intendano utilizzare sistemi di intelligenza artificiale sicuri?

All’Unione Europea occorre dare atto, come si diceva, di una grande attenzione e di un grande impegno. Proprio nel tentativo di migliorare l’assetto che deriva dall’applicazione della disciplina della responsabilità del produttore, e per l’ipotesi in cui i danneggiati preferiscano agire in base alle discipline nazionali, in genere fondate sulla colpa (come accade anche in Italia, in base all’art. 2043 c.c.), è stata apprestata una ulteriore nuova proposta di direttiva sulla responsabilità da intelligenza artificiale, dichiaratamente finalizzata a garantire ai danneggiati una protezione equivalente a quella di cui beneficiano quanti subiscono danni causati da prodotti di altro tipo (Proposta di direttiva sulla responsabilità da intelligenza artificiale: COM/2022/496 final). La direttiva riflette, in altri termini, un principio di ‘neutralità’ dell’Intelligenza Artificiale: che un danno si verifichi a causa di quest’ultima ovvero a causa di un qualsiasi prodotto o comunque di un fattore, per così dire, ‘tradizionale’ rimane indifferente per il danneggiato. La proposta di direttiva persegue questa finalità attraverso un sistema di regole che – in estrema sintesi – riconosce al giudice investito della controversia il potere di ordinare la divulgazione di elementi di prova rilevanti in relazione a specifici sistemi di Intelligenza Artificiale ad alto rischio che si sospetta abbiano cagionato danni, di modo da rendere concretamente possibile l’accesso alla prova della colpa. Ed inoltre, stabilisce una presunzione di esistenza del nesso causale tra la colpa del convenuto e l’output del sistema a determinate condizioni, diverse a seconda dei casi (comunque giustificata nei casi di mancato rispetto di un’ordinanza giudiziaria di divulgazione o conservazione degli elementi di prova).

Si tratta di disposizioni che potrebbero risultare significative e comunque merita di essere apprezzato il tentativo di ricerca e sperimentazione di nuove regole. È tuttavia difficile dire se nell’azione dell’Unione Europea sia prevalente l’esigenza di agevolare le azioni risarcitorie o piuttosto di tentare di rendere maggiormente omogenee le regole degli Stati nazionali in questa materia e quindi realizzare un sistema di regole giuridiche capace di dare maggiori garanzie di certezza e prevedibilità dei risultati. Nella responsabilità civile, il concreto modo di intendere le regole da parte della giurisprudenza ha sempre avuto un impatto particolarmente rilevante, appunto in quanto i Codici non delimitano l’area dei danni risarcibili, non specificano in concreto il parametro della colpa, né i presupposti minimi del nesso causale. Proprio l’elasticità del sistema ha consentito ai giudici di adeguare il sistema al progressivo evolversi della società e – per quanto riguarda l’esperienza italiana in particolare – a recepire alcuni dei principi costituzionali ed a dargli così effettiva attuazione e concretezza. L’evoluzione del diritto ad opera della giurisprudenza crea tuttavia, quantomeno al momento dell’affermarsi di un nuovo orientamento – la nostra esperienza è ricca di esempi al riguardo (si pensi all’avventura del danno biologico o all’affermazione dei diritti della personalità) – crea incertezza e rende difficilmente prevedibile l’esito delle lite: la recente proposta di direttiva sembra guardare con particolare preoccupazione a questo aspetto del problema e cerca di avocare alla legge scritta una più precisa definizione dei parametri che possono giustificare l’accoglimento di un’azione risarcitoria.

Questo punto è di particolare rilievo proprio in quanto sinora proprio la responsabilità civile ha rappresentato il settore maggiormente in grado di assecondare l’evoluzione sociale e consentire l’emersione di nuove ragioni e di nuovi interessi meritevoli di tutela. Si tratta ora di comprendere se il tentativo della proposta di direttiva sia di intervenire in quest’ambito e – nel tentativo di creare maggiore certezza nell’esito delle lite – definire in modo maggiormente rigido e vincolante i parametri che i giudici sono chiamati ad applicare, così incidendo in profondità nel sistema della responsabilità civile e del modo di essere di questo settore, che ha saputo finora fornire fondamentali utilità al nostro sistema giuridico nel suo complesso. La preoccupazione dell’Unione Europea per le possibili incertezze che si possono generare si giustifica, peraltro, considerando l’impossibilità di calcolare preventivamente i rischi che il ricorso all’intelligenza artificiale può comportare: per le imprese, si tratta, di per sé, di una criticità importante, che, tra l’altro, precludono una possibile gestione di questi rischi in via assicurativa. L’impossibilità di predeterminare con rigore statistico i rischi in questione ed il loro potenziale impatto economico impedisce alle imprese di assicurazione di entrare in questo mercato, mentre proprio la socializzazione dei rischi – e l’assicurazione obbligatoria ne rappresenta una delle forme maggiormente collaudate – potrebbero rappresentare una delle modalità maggiormente sostenibili per gestire il problema. Per muovere in questa direzione si dovrebbe quantomeno porre un limite all’ammontare massimo dei risarcimenti, che un tema su cui – a livello europeo – non sono state ancora raggiunte soluzioni.

La difficoltà dei problemi che l’intelligenza artificiale pone al sistema della responsabilità civile, da un lato, alle imprese del settore dall’altro, emerge dunque anche sotto questo profilo. La certezza del diritto – ed i costi dell’incertezza – rappresentano sicuramente un tema di rilievo centrale e tuttavia che, almeno al momento dell’emergere di nuovi problemi, vi sia una consistenza incertezza è un dato fisiologico, che nessun sistema giuridico può eliminare: la soluzione migliore deve essere cercata, collaudata, possibilmente migliorata fino a raggiungere un assetto ottimale. Ed il tentativo di imporre soluzioni certe attraverso prescrizioni che vorrebbero dettare alla giurisprudenza criteri di soluzione sicuri, agevolmente prevedibili, è probabilmente velleitaria, né la storia presenta esempi apprezzabili di questa natura. Dal punto di vista degli operatori, l’aspirazione alla certezza è assolutamente legittima e comprensibile, ma occorre considerare che proprio dall’incertezza sono poi scaturite, anche nell’ambito della responsabilità civile, soluzioni innovative, poi apprezzate dalla generalità dei consociati e spesso recepite sul piano legislativo. In altri termini, il diritto si produce attraverso l’incertezza ed anche l’Unione Europea deve prendere atto di questo dato, che è assolutamente ineliminabile. È peraltro singolare che proprio nell’Intelligenza Artificiale si ravvisi uno strumento utile a decidere in modo certo e stabile un numero indefinito di controversie: si finge di non comprendere che – a prescindere da ogni altra considerazione di rilievo costituzionale – che un simile sistema impedirebbe qualsiasi progresso del sistema.

 

 

Il riferimento all’Intelligenza artificiale applicata al diritto – che riscuote moltissima attenzione non solo da parte degli operatori pratici, ma anche di entità istituzionali, fortemente motivate a sperimentare strumenti utili a gestire i problemi legati a tempi della giustizia ed anche al costo dei processi – evoca possibili problemi etici. Quali sono le questioni etiche legate all’impiego dell’intelligenza artificiale nell’ambito della responsabilità civile? E quali futuri orizzonti possono – anche a questo riguardo – prospettarsi?

Anche le questioni etiche che l’Intelligenza Artificiale pone al diritto ripropongono, almeno in una certa misura, dinamiche note: il tema della sostituzione dell’uomo con la macchina – anche a prescindere dai possibili risvolti occupazionali, di cui ciclicamente si discute dalla rivoluzione industriale in avanti – è inevitabilmente divisivo. Non è da escludere che almeno alcuni dei problemi sin qui esaminati potrebbero essere affrontati immaginando di incorporare l’Intelligenza Artificiale in una persona giuridica: sarebbero così più facilmente identificabili, quantomeno, l’entità giuridica titolare del sistema e al contempo responsabile per esso, le persone fisiche che svolgono le funzioni di amministrazione e di controllo, nonché l’entità degli investimenti e degli utili distribuiti ai soci. Sarebbe anche più agevolmente possibile, rispetto alle difficoltà già segnalate a proposito di garantire risarcimenti adeguati senza limitare preventivamente l’ammontare massimo della responsabilità, ed allo scopo di rendere più agevole il ricorso all’assicurazione dei rischi, imporre l’accantonamento di una quota di utili prodotti dal sistema e garantire così una ‘riserva’ utile, tra l’altro, a garantire la solvibilità dell’ente eventualmente responsabile di sinistri di notevole entità. Ma le aperture che la stessa Unione Europea aveva inizialmente operato, per poi ripiegare su forme di «registrazione» di taluni sistemi (nella Proposta di Regolamento sull’Intelligenza Artificiale, l’art. 60 prevede una Banca Dati destinata a censire i sistemi ad alto rischio), si sono probabilmente scontrate con gli equivoci che la nozione di «persona giuridica» può ancora ingenerare e l’idea che in qualche si potesse arrivare per questa via a creare una confusione o una fungibilità tra l’uomo e la macchina.

Ma, a prescindere da questi aspetti, la prima questione etica che un’innovazione così radicale propone s’identifica con la questione giuridica di fondo, intorno alla quale ruota l’intero discorso, e riguarda la distribuzione dei costi e dei benefici che l’Intelligenza Artificiale può assicurare. Muovendo da una riflessione sulla responsabilità civile, si tratta di stabilire quali danni debbano essere effettivamente, in quale misura vadano risarciti e a carico di chi debba gravare il risarcimento. In un’analisi economica, potrebbe dirsi quali esternalità negative dei sistemi di Intelligenza Artificiale devono necessariamente essere re-internalizzate a carico dei soggetti responsabilità e tra le esternalità negative in questione non dovrebbero essere considerate solo quelle di natura ambientale, ma anche quelle attinenti a dinamiche politiche, economiche, sociali. Si è già detto che, con tutta probabilità, i modelli che hanno sostenuto la prima industriale non possono essere utilmente riproposti. Peraltro, le compagnie all’avanguardia nel settore dell’Intelligenza Artificiale sembrano economicamente e patrimonialmente in grado di rispondere dai danni che cagionano a prescindere da orientamenti di particolare favore (tali sarebbero, in particolare rispetto a macchine i cui criteri di funzionamento sono per definizioni opachi anche per i tecnici del settore) e non sembra pertanto necessario immaginare politiche che, direttamente o indirettamente, siano destinate a favorire le imprese di questo settore, che, peraltro, sono spesso tra le compagnie più patrimonializzate del mondo. Certo, l’Europa non vuole neanche scoraggiare queste imprese o indurle ad allocarsi altrove e questo ripropone ancora una volta il difficile bilanciamento tra finalità diverse di cui si è già parlato.

Con riguardo al piano etico, un discorso a parte andrebbe naturalmente dedicato ai sistemi di Intelligenza Artificiale che chiamati ad operare valutazioni di merito relative a persone: si pensi ai sistemi che incidono – attraverso processi di profilazione più o meno palese – nella decisione di consentire o meno l’accesso a determinati servizi, ovvero di erogare o non erogare un finanziamento fino ad arrivare ai quelli che dovrebbero essere in grado di decidere controversie: è questo un tema su cui, anche in Italia, si è ormai aperta un’ampia discussione, segnatamente rispetto al settore tributario, ancora più degli altri afflitto da un numero di controversie fuori controllo, che tuttavia presentano dei caratteri che sembrano incoraggiare l’esplorazione di soluzioni di questa natura. Qui il discorso etico non riguarda semplicemente la sostituzione dell’uomo con la macchina – ed a questo riguardo può subito essere sottolineato che, sul piano costituzionale, la possibilità di affidare la tutela giurisdizionale dei diritti o degli interessi legittimi a sistemi artificiali è da escludere in radice (ed è noto che l’Art. 22 GDPR prevede in linea di principio il diritto della persona a non essere sottoposto a processi decisionali automatizzati) – ma, come già si diceva, il modo stesso di intendere il fenomeno giuridico: cosa, agli algoritmi, può effettivamente chiedersi di fare? L’esame dei testi di legge e l’analisi dei contenuti di tutte le migliaia di precedenti che esistono in ogni materia? Ma è a questo che si riduce l’attività del giurista? O nell’interpretazione di qualsiasi norma entrano una serie di fattori diversi dal testo scritto, necessariamente consapevoli del bilanciamento tra valori diversi, da operare di volta in volta in modo diverso a seconda del contesto, del momento, delle peculiarità del caso.

Se nel futuro si pensasse di fare a meno di questa dimensione del diritto, si smarrirebbe del tutto il senso del nostro ordinamento costituzionale, della centralità della persona, nel cui pieno sviluppo si risolve la finalità e la giustificazione stessa del sistema. Da ogni possibile deriva che trascuri questi aspetti è dunque necessario rimanere alla larga per riproporre invece un modello consapevole delle diseguaglianze e della necessità di porvi rimedio.

 

Back To Top