skip to Main Content

Intervista al Prof. Eugenio Fazio. Intelligenza artificiale e diritti della persona

 

Eugenio Fazio è Professore associato di Diritto privato e Diritto privato dei beni presso il Dipartimento di Giurisprudenza dell’Università degli Studi di Messina; componente del comitato scientifico di convegni e seminari, ha partecipato in qualità di relatore a numerosi convegni.

E’ autore di tre monografie, oltre che di saggi, parti di commentari e note a sentenza nei diversi ambiti del diritto privato.

Il Prof. Eugenio Fazio

 

Nel Suo libro Intelligenza artificiale e diritti della persona si occupa della soggettività giuridica dei robot. E’ possibile considerare i robot come soggetti giuridici?

La questione dell’attribuzione ad un robot della soggettività non presenta risvolti solo teorici, ma indubbiamente utilità e incidenze di natura pratica, specie sul piano di una eventuale responsabilità per danni.

Ci si chiede se la soggettività giuridica sia un predicato esclusivo della persona e degli enti costituiti da persone o da patrimoni con scopi umani oppure possa appartenere pure ai robot. E la domanda urge a fronte di un tumultuoso avanzamento del progresso tecnologico per effetto del quale il robot ha abbandonato la posizione di manodopera qualificata nell’interazione con l’uomo per atteggiarsi ad entità eventualmente senziente, potenzialmente pensante in base al “test di Turing”, talora capace di decisioni autonome.

Orbene il robot “pensa” ma non ha coscienza dei significati e dei contenuti pensati; “impara” ma ha un sapere esogeno, indotto dall’uomo e dall’esperienza; “vuole” e “decide” ma programmaticamente, non liberamente, sicchè e’ controverso se la macchina possa essere dotata di principi etici, la c.d. “moralità artificiale”.

La differenza tra robot e essere vivente permane allora non tanto con riferimento ai prevedibili-razionali comportamenti da tenere, essendo possibile inserire miriadi di eventualità e risposte nell’IA, quanto con riferimento alle scelte “negative”, espressione di “libero arbitrio”.

In tal senso solo gli esseri viventi e non le macchine sono astrattamente idonei/capaci di scegliere liberamente tra lecito e illecito, tra bene e male, tra giusto e ingiusto, di determinarsi dunque anche contro il proprio interesse, i propri bisogni.

Tutto ciò premesso, tuttavia, nulla osta sul piano giuridico-formale, essendo nella discrezionalità dell’ordinamento, alla attribuzione di una speciale soggettività giuridica ai robot che potrebbero rappresentare il centro di imputazione di taluni diritti e obblighi, senza che evidentemente venga meno la distinzione tra la qualifica (formale) di soggetto e quella (sostanziale) di persona, giacchè il robot certamente non è persona.

Difatti l’intervento dell’ordinamento è, come è noto, meramente dichiarativo nel caso degli esseri viventi, provvedendo lo stesso ad una presa d’atto, mentre risulterebbe di natura esclusivamente costitutiva nel caso delle macchine.

In questa cornice i robot, pur umanoidi, ma privi di vita in termini biologici e dei caratteri umani essenziali, quali la libertà cognitiva e volitiva, l’autodeterminazione, la creatività, costituiscono una realtà meramente artificiosa, spoglia di qualsiasi “alone di socialità”. E’ da verificare dunque se essi, esclusa la loro qualificazione in termini di persona, possano quantomeno presentare una soggettività giuridica, e in che termini relata all’uomo.

Può osservarsi che mentre la qualifica di persona non è nella discrezionalità della legge, per quella di soggetto c’è un ampio margine di discrezionalità; sono soggetti solo a titolo esemplificativo gli enti collettivi, potrebbero esserlo i patrimoni destinati e quindi sul piano teorico nulla esclude che tale qualifica possa anche essere attribuita ad un robot.

Fermo restando che l’attribuzione di una soggettività giuridica piena ai robot presenta indubbie perplessità, come le tesi della soggettività parziale e della soggettività limitata, anch’esse autorevolmente sostenute, e considerato altresì che nella stessa proposta di regolamento sull’approccio europeo all’intelligenza artificiale, pubblicata dalla Commissione europea il 21 aprile 2021 (approvata dal Parlamento europeo nel giugno di quest’anno con alcune modifiche), non emerge alcun riferimento preciso alle questioni relative alla soggettività dei sistemi di intelligenza artificiale, resta allora aperto il problema se i robot siano comunque dei prodotti oppure assurgano al rango di soggetti.

La risposta all’interrogativo sulla condizione di soggettività dei robot intelligenti necessita dunque di un confronto con le categorie tradizionali e la normativa vigente volto a verificare la sostenibilità di un riconoscimento siffatto e l’eventuale individuazione di una specifica soggettività diversa da qualsiasi altra, in particolare da quella delle persone fisiche e degli enti collettivi. Appare evidente difatti come l’attribuzione ai robot del rango di soggetti, oltre all’eventuale riconoscimento di diritti, importa la potenziale titolarità di obblighi, sia di natura contrattuale sia di natura extracontrattuale, sicchè eventuali inadempimenti, come le conseguenze dei danni prodotti da macchine intelligenti, potrebbero imputarsi direttamente alla macchina.

Premesso che appare operazione assai complessa quella di definire rilievo e funzione della soggettività giuridica nel ventunesimo secolo in ragione delle innumerevoli sfaccettature di cui essa si compone nei vari ambiti di riferimento e altresì che la nozione di autonomia in questa materia non appare di facile determinazione, a mio avviso l’ordinamento non potrebbe procedere alla qualificazione dei sistemi di intelligenza artificiale non caratterizzati dall’autonomia in guisa di soggetti giuridici.

Una forma gradata di soggettività sarebbe invece configurabile per le macchine autonome, che sfruttano processi analoghi a quelli cognitivi umani, vengono ritenute capaci di comportamenti intelligenti, si basano su una rappresentazione interna del mondo esterno e si adattano anche ad ambienti parzialmente sconosciuti e mutevoli. Queste divenendo titolari di diritti e di obblighi attraverso un intervento costitutivo dell’ordinamento, e dunque munite di capacità giuridica e di agire, potrebbero essere dotate di un patrimonio, con cui far fronte alla loro eventuale responsabilità.

In una fase evolutiva avanzata della tecnologia l’autonomia dei robot caratterizzata in termini di sempre maggiore cognitività e di correlata capacità di intendere, frutto di un crescente autoapprendimento, e di una indipendente, sia pur limitata, volitività, espressa in decisioni vieppiù discrezionali, sottrarrà l’agente software al determinismo del programmatore e alle direttive dell’utilizzatore, spingendolo in un’area di libera iniziativa, carattere essenziale peraltro dell’attività economica. Il robot allora potrebbe imporsi ad esempio come operatore commerciale, entità autonoma di riferimento di scambi e di utilità, ed essere qualificato in termini di soggetto da parte dell’ordinamento, quale punto di riferimento soggettivo, centro di imputazione di interessi e di situazioni soggettive.

E il patrimonio robotico, destinatario finale degli eventuali vantaggi economici, dovrebbe risultare adeguato, sì da costituire garanzia sufficiente e dunque responsabile contrattualmente ed extracontrattualmente dei danni prodotti, ad esempio nel campo della contrattazione finanziaria algoritmica, della medicina robotica, della circolazione dei veicoli senza conducente.

Ciò varrebbe a deresponsabilizzare i soggetti (ideatore, programmatore, proprietario, utilizzatore) che hanno concorso alla produzione del robot autonomo e che a vario titolo potrebbero rispondere della sua attività, eventualmente inadempiente e dannosa. Si eviterebbe così di estendere l’area della responsabilità oggettiva con riferimento ai predetti soggetti, cui non potrebbe essere riferita nessuna responsabilità colpevole.

E’ opportuno rilevare peraltro l’alto tasso di problematicità e complessità delle situazioni in esame, in ragione dell’inarrestabile progresso tecnologico. Difatti in questo contesto così articolato e frammentato questioni ulteriori si porranno con riferimento alla intelligenza artificiale generativa che utilizza modelli di apprendimento automatico per la creazione di nuovi contenuti, basandosi su dati esistenti, con riferimento alla produzione di film, programmi televisivi, videogiochi e testi; in particolare i modelli generativi si pongono l’obiettivo di apprendere la distribuzione dei dati e di generare nuovi dati simili a quelli osservati e tra questi vanno menzionati i transformer, cioè modelli di linguaggio basati su reti neurali che usano un’architettura che permette al modello di processare sequenze di parole o simboli parallelamente e di cogliere le relazioni tra le diverse parti della sequenza.

Tra gli esempi famosi di transformer generativi è possibile menzionare GPT-3, sviluppato da OpenAI, in grado di produrre testi realistici su qualsiasi tema, la cui versione lanciata a novembre 2022 denominata ChatGpt risulta il chatbot più noto della rete.

Le difficoltà prima accennate si evidenziano dunque in queste ultime ipotesi in ragione del fatto che questi sistemi non agiscono come macchine pensanti perché non hanno alcuna comprensione del significato delle parole che generano, bensì piuttosto individuano schemi verbali ricorrenti nei dati e li replicano.

 

Quale differenza c’è tra robot autonomi e robot tele-operati in termini di soggettività giuridica? E quali sono le implicazioni legali di questa distinzione?

Le possibili intersezioni tra diritto e robotica insieme alla varietà delle applicazioni tecnologiche evidenziano una molteplicità di problemi giuridici di ardua definizione e nel contempo la difficoltà della loro riconduzione ad un paradigma omogeneo.

Lo sviluppo delle applicazioni robotiche con le relative implicazioni socio-economiche richiede dunque l’enucleazione di un quadro di regole certo rispetto ai doveri e alle responsabilità dei soggetti coinvolti nel processo di innovazione tecnologica.

Appare allora necessaria la definizione delle questioni giuridiche che in base ad una prima classificazione riguardano l’ideazione, la costruzione e la formazione dei robot da un lato, le modalità di loro utilizzo e gestione dall’altro, infine le conseguenze prodotte dal loro utilizzo.

La varietà fenomenica dei prodotti robotici si manifesta nel campo della percezione, della rappresentazione dello spazio, del riconoscimento di oggetti e situazioni, della pianificazione del movimento.

Preliminare ad ogni approccio classificatorio rimane tuttavia la stessa qualificazione giuridica del robot, cioè l’ambito delle questioni che attengono alla sua ideazione e formazione.

In particolare, se si volge lo sguardo alle classiche categorie concettuali della fenomenologia giuridica, ovvero il soggetto e l’oggetto, si può formulare qualche considerazione riguardo all’inclusione dei robot in siffatte categorie e alla classificazione degli stessi in ragione delle loro capacità.

Per i robot tele-operati non dovrebbero sussistere dubbi riguardo alla loro appartenenza alla categoria delle res e all’inquadramento in termini di oggetti del diritto con le correlative regole in punto di circolazione giuridica e responsabilità; ad esempio i robot sociali, progettati per essere utilizzati in compiti di cura, di assistenza e di compagnia e caratterizzati dalla capacità di creare l’apparenza di capacità cognitive, emozioni e sentimenti, non sembra possano considerarsi soggetti su un piano di parità con la persona assistita in ragione del loro ruolo complementare e di ausilio.

Per i robot autonomi e cognitivi, che presentano livelli diversi di autonomia, si pone invece il problema della loro eventuale soggettivizzazione, che sembra come già argomentato sopra potersi risolvere in senso positivo al ricorrere dei requisiti precedentemente enunciati, con riguardo sia all’ambito contrattuale sia all’ambito extracontrattuale.

Resta fermo che allo stato attuale non sembra possibile operare una sovrapposizione tra l’autonomia umana e quella robotica, nella misura in cui l’irriducibile diversità ontologica delle macchine e degli esseri umani evidenzia una forma limitata di autonomia della macchina stessa, dipendente da algoritmi della logica deontica sistemica e differente dalla libertà personale e dalla intenzionalità soggettiva.

Dalla risoluzione delle questioni relative alla “costruzione” del robot dipende poi l’applicazione di una speculare disciplina. Difatti alla qualificazione dei robot come prodotti destinati al consumo è seguito il richiamo della disciplina europea, diretta a fissare standard minimi di sicurezza per la messa in commercio; lo stesso vale per i robot che rappresentano dispositivi medici, come le protesi o i robot chirurgici, e richiamano altre discipline regolatorie.

Un approccio e conseguenze del tutto diversi si avrebbero invece evidentemente nel caso della attribuzione di una peculiare forma di soggettività ai robot autonomi, dunque alle macchine intelligenti.

Questioni di natura diversa riguardano in secondo luogo le modalità di gestione e uso dei robot, giacchè specie il riconoscimento di oggetti e situazioni, lo svolgimento di attività diversificate e rilevanti dal punto di vista spaziale importano l’individuazione di regole idonee a disciplinare i comportamenti robotici.

Si pensi all’uso dei robot in ambienti comuni e di tecnologie come quella dei droni, che involgono questioni di non poco conto di sicurezza, specie per il loro utilizzo sul posto di lavoro, e di protezione della privacy e dei dati personali.

Ed ancora l’utilizzazione di sistemi robotici e di intelligenza artificiale come assistenti degli esseri umani nel lavoro industriale, nel lavoro domestico e in ambito medico esige l’elaborazione di nuovi paradigmi per la corretta disamina delle nuove forme di interazione uomo-macchina, con i connessi rischi di violazione dei diritti alla salute, alla autodeterminazione, all’identità personale, senza trascurare le pratiche mediche di potenziamento e le speculari questioni di preservazione della condizione umana e di rispetto della dignità umana.

Infine altrettanto rilevanti risultano le questioni relative alle conseguenze prodotte dall’utilizzo dei robot, cioè i problemi inediti riguardanti le responsabilità per danni causati dai robot; le tipologie di rischi da fronteggiare in questa materia riguardano in particolare i vizi ingegneristici o di programmazione, gli errori umani dell’operatore, le condizioni ambientali che non agevolano l’attività dei sensori.

Orbene la combinazione del mondo fisico e di quello digitale nel robot importa la necessità di uno strumentario giuridico adeguato in caso ad esempio di interazione dannosa con il suo utilizzatore o con eventuali altre persone; il riferimento immediato qui è ai criteri di imputazione della responsabilità per i danni causati da cose o prodotti.

La complessità, imprevedibilità e vulnerabilità delle nuove tecnologie evidenziano le criticità degli attuali modelli di responsabilità, specie quelli fondati sulla colpa, in ragione delle difficoltà probatorie del danneggiato in ordine alla sussistenza dei presupposti della responsabilità, relativamente all’individuazione del responsabile, all’accertamento della colpa e del nesso eziologico.

La soluzione passa dall’adattamento in via analogica delle regole sulla responsabilità civile o dal riconoscimento di una soggettività direttamente in capo ai dispositivi di intelligenza artificiale.

 

Nel libro affronta il tema della responsabilità civile legata ai danni causati dai robot. Potrebbe approfondire come l’uso di robot influisce sulle regole di responsabilità civile?

Nell’ambito extracontrattuale le regole di responsabilità civile rispondono all’esigenza di minimizzare i costi sociali dei danni, mediante politiche di prevenzione e responsabilizzazione dei soggetti coinvolti, nonché alla necessità di distribuire i rischi di danno collegati ad iniziative economiche utili per la collettività sebbene potenzialmente dannose.

Se le macchine intelligenti non sono immuni dal produrre danni, anche nel tema in esame l’accertamento del pregiudizio inferto non può scindersi da una puntuale attività di qualificazione dell’illecito e della sua fonte.

A monte rispetto al possibile verificarsi di danni da trattamento algoritmico dei dati, più in generale, nel nostro ambito assume rilevanza poi il tema dei controlli affidati agli attori coinvolti nel processo di innovazione tecnologica, in applicazione dei principi di prevenzione e precauzione e nell’ottica della riduzione dei pregiudizi ai diritti e alle libertà fondamentali degli individui.

In tal senso la scelta di un modello di prevenzione del danno presuppone l’ideazione e lo sviluppo di algoritmi fondati su rigorose valutazioni di impatto e analisi anticipata dei rischi e la previsione di obblighi preventivi di sicurezza e protezione dei sistemi algoritmici, a carico degli ideatori e programmatori, tenuti all’adozione di misure tecniche e organizzative adeguate alla gestione dei rischi.

E l’esigenza di intervenire con regole giuridiche nel settore delle nuove tecnologie per prevenire e rimediare ai danni conseguenti al loro uso dovrebbe tener conto dell’utilità dalle stesse prodotte, dei profitti degli operatori, dei benefici della comunità e dei danni per gli utenti, dovendosi poi distinguere tra i produttori di beni e i produttori di servizi e tra i sistemi di intelligenza artificiale, costituiti da un software, che rientra dunque nel settore dei servizi, e i prodotti che incorporano software.

Come è noto le applicazioni intelligenti regolano il funzionamento di prodotti, che evolvono a seconda dei dati a cui avranno accesso o che essi stessi genereranno, dell’addestramento loro impartito e infine delle esperienze successive alla loro commercializzazione e al loro primo utilizzo.

E’ opportuno evidenziare tuttavia come la capacità di autoapprendimento di taluni sistemi di IA coincida con l’opacità del loro funzionamento e una conseguente perdita di controllo da parte del programmatore, produttore o utilizzatore; in altri termini l’AI self-learning decide autonomamente senza l’intervento umano se intraprendere o meno determinate azioni e sulla base di un processo decisionale non sempre prevedibile ex ante, né comprensibile ex post.

Si pongono dunque questioni complesse relative alla responsabilità dell’ideatore dell’algoritmo di machine learning (in ragione della sua capacità di automodificarsi ed autoperfezionarsi) e del suo produttore, nonché a quelle dell’utilizzatore o custode o titolare, a qualsiasi titolo, della macchina dotata di autoapprendimento.

L’assenza di piena trasparenza dell’AI, ossia la possibilità di conoscere e comprendere la logica dei processi di machine learning, si accentua con riguardo al funzionamento dei sistemi di deep learning e delle c.d. reti neurali, sicchè, secondo il dilemma della black-box, la mancanza di trasparenza dell’iter decisionale seguito dall’IA rende difficile il governo della macchina, la correzione di eventuali errori e la prevenzione degli eventi dannosi.

In tal senso difatti i robot di ultima generazione sviluppano, attraverso la percezione a mezzo di sensori e l’azione, una cognizione, cioè una capacità decisionale che rende incerta la sequenza causale, anche in ragione della stretta interconnessione dei ruoli di più persone nei sistemi robotici, e problematica l’applicazione delle regole giuridiche di responsabilità, fondate sulla colpa e sulla causalità.

Sono state avanzate al riguardo proposte di schemi innovativi rispetto alle comuni regole di responsabilità, che suscitano talune perplessità, sicchè sembra preferibile richiamare la disciplina comune della responsabilità civile e ricondurre le soluzioni giuridiche al tema in esame nei paradigmi tradizionali, mediante un adattamento e una rilettura della normativa vigente dell’ordinamento interno attraverso l’utilizzo sapiente degli strumenti interpretativi, quantomeno nelle ipotesi di robot tele-operati assimilabili alle res, mentre per i robot autonomi come già argomentato si potrebbe procedere all’attribuzione di una gradata forma di soggettività con conseguente responsabilizzazione della macchina, sempre che ricorrano i requisiti dell’autonomia, cioè di un’autonoma capacità decisionale del tutto prescindente dalla programmazione iniziale.

Invero le ipotesi di responsabilità extracontrattuale dei danni cagionati dai robot non autonomi, che non interagiscono con l’ambiente in modo imprevedibile, possono essere riversate nell’alveo codicistico e ricomprese nella previsione dell’art. 2050 c.c., cioè della responsabilità per l’esercizio di attività pericolose, che si attaglia alla fattispecie in esame ove la situazione specifica sia caratterizzata da elevata pericolosità, stante il suo carattere oggettivo, come delle contigue figure della responsabilità da cose in custodia (art. 2051 c.c.) e, dubbiosamente, di quella da animali (art. 2052 c.c.).

E’ indubbio difatti come il robot, che non abbia acquisito un grado elevato di autonomia, resta pur sempre un prodotto delle cui azioni, eventualmente imprevedibili, rispondono a vario titolo tra gli altri il produttore ai sensi della speculare normativa settoriale, il trainer e il programmatore, se si interpreta estensivamente il concetto di difetto fino a includervi, quale anomalia dell’algoritmo, qualsiasi deviazione dell’operato della macchina dalla programmazione in esso incorporata, che concreti un illecito dannoso.

Dunque, fatti salvi i casi di autonomia robotica, che potrebbe determinare come evidenziato sopra una responsabilizzazione diretta della entità robotica, appare necessaria una ripartizione della responsabilità tra i diversi attori inseriti lungo la catena in cui si articolano i processi di ideazione, programmazione e utilizzo delle applicazioni di IA, che chiami a rispondere del danno quello reputato causalmente più vicino, in relazione alle diverse abilità delle applicazioni, alla precisa identificazione dei ruoli di ciascun soggetto, alle circostanze volta a volta esistenti.

E’ da rilevare ancora come la fattispecie cui si ricorre frequentemente per l’inquadramento dei danni da robot sia quella della responsabilità da prodotto difettoso in ragione della automazione delle attività, della conseguente perdita di controllo da parte dell’operatore e della maggiore capacità di governo della macchina del fabbricante, della presenza poi di un difetto di fabbricazione o di un errore di programmazione quale causa del comportamento dannoso. Pur tuttavia sono emerse perplessità in dottrina in ragione di alcune peculiarità della disciplina positiva, quali la necessità che il difetto sia presente al momento della messa in commercio, che è in diretta contraddizione con il caratteristico stato incompleto del software, l’esenzione per rischi da sviluppo, l’evolversi dei sistemi in maniera imprevedibile, la capacità di automodificarsi.

Non può infine non segnalarsi come nell’ambito del bilanciamento tra le contrapposte finalità di tutela del danneggiato e di incentivo al progresso scientifico della ricerca si inquadra da ultimo la proposta di nuova direttiva sulla responsabilità da prodotti difettosi (Proposta del 29 settembre 2022 di Direttiva del Parlamento europeo e del Consiglio sulla responsabilità per danno da prodotti difettosi). Quest’ultima tiene conto delle peculiari difficoltà di dare prova nel settore dell’intelligenza artificiale del soggetto responsabile, della sua colpa, del difetto, e del nesso di causalità tra difetto e danno.

 

Quali sono gli aspetti chiave che il Suo libro analizza in relazione alla responsabilità medica nell’ambito della intelligenza artificiale?

Tra i settori in cui l’intelligenza artificiale assume un rilievo crescente anche nell’ottica della responsabilità rientra quello sanitario (richiamato nell’AI Act all’art. 5), campo elettivo della vulnerabilità dell’essere umano, avuto riguardo alla elevata capacità di autoapprendimento e di autoprogrammazione della stessa, con funzioni non solo migliorative ma talora sostitutive delle performance di spettanza esclusiva una volta dell’ars medica, a fronte ora della emergente automazione sanitaria con conseguente declassamento del medico a controllore ex post del risultato della condotta del sistema “intelligente”. Ciò comporta un ripensamento dell’autonomia deliberativa e decisionale del medico, che senza venir meno alla propria responsabilità deve utilizzare nel miglior modo possibile le risorse fornite dal sistema computazionale.

Alla luce di quanto appena esposto sembra allora necessario fare qualche considerazione sui danni da robot in ambito sanitario e intanto distinguere sul versante della responsabilità sanitaria l’ipotesi dei robot teleoperati, ove la macchina è guidata dal professionista e dunque non si deroga rispetto all’applicazione del regime tradizionale dei sistemi di diritto interno, da quella più problematica in cui la stessa acquisisca autonomia, cioè sia capace di prendere decisioni e realizzarle, a prescindere da un controllo esterno. Quando difatti la macchina agisca sulla base di un algoritmo di autoapprendimento, in caso di scelte pregiudizievoli per la salute del paziente, appare opportuno determinare, in considerazione della imprevedibilità e incontrollabilità delle stesse, quale sia il soggetto da ritenersi responsabile, nonché il criterio di imputazione di siffatta responsabilità; in altri termini argomentare sulla possibilità di deresponsabilizzare l’essere umano o piuttosto ipotizzare una diretta responsabilizzazione, per il danno cagionato dalla macchina “intelligente”, tra gli altri dell’autore dell’algoritmo di autoapprendimento, potendo assimilarsi lo stesso algoritmo alla componente di un prodotto, secondo lo schema già collaudato della responsabilità in tema di product liability.

Orbene, con riferimento a questi casi, se si ritiene responsabile l’utilizzatore della macchina a titolo di responsabilità oggettiva, indipendentemente dalla ricerca della sua imperizia, si finisce per privilegiare la posizione del danneggiato, che potrebbe agire nei confronti del soggetto da lui più facilmente individuabile, finendosi così tuttavia per non incentivare l’utilizzo di strumenti autonomi di IA.

Secondo una prospettiva opposta la responsabilità dell’utilizzatore dovrebbe limitarsi ai casi di accertata imperizia nell’uso del dispositivo, e in mancanza si potrebbe ritenere responsabile la macchina autonoma, dotata al ricorrere di determinate condizioni della soggettività di cui si è argomentato e di un patrimonio adeguato, oppure il produttore della macchina.

La soggettivizzazione della macchina importerebbe in altri termini la responsabilità per i sinistri da essa stessa cagionati, proprio in ragione della divaricazione tra l’agire del sistema autonomo e l’attività del suo utilizzatore, attraverso la garanzia di un patrimonio idoneo al soddisfacimento delle pretese dei danneggiati.

In questo quadro di eventuale confliggenza tra le opposte finalità di tutela del danneggiato e di incentivo al progresso scientifico della ricerca si colloca la proposta di direttiva sulla responsabilità extracontrattuale per il settore dell’AI (Proposta del 29 settembre 2022 di Direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale). Quest’ultima prende atto dei criteri di imputazione della responsabilità presenti nei singoli ordinamenti, indicando obiettivi di armonizzazione minima, e nelle ipotesi in cui la responsabilità da utilizzo della macchina risulti attribuita in via colposa introduce presunzioni relative con riferimento al nesso causale tra colpa del convenuto e danni prodotti dalla macchina di intelligenza artificiale, nonché regole probatorie idonee ad agevolare l’acquisizione di informazioni in capo agli utenti della macchina.

In ragione di quanto sopra esposto fondamentale per la ricostruzione delle regole di responsabilità nel caso di sinistri cagionati dai robot che operano in ambito sanitario rimane poi il riferimento al diritto vigente, onde verificare quali siano i soggetti potenzialmente responsabili e quali i criteri di imputazione operanti.

Come già rilevato le regole di responsabilità medica non subiscono modifiche quando la macchina di intelligenza artificiale, proprio perchè non autonoma, sia guidata dal medico e da questi controllata. In tal caso la struttura sanitaria ovvero il medico libero professionista sono responsabili contrattualmente, ed il medico ausiliario della struttura in via aquiliana, nei confronti del paziente in caso di imperizia nell’esecuzione della prestazione di cura.

I modelli tradizionali di responsabilità medica risultanti dalla l. Gelli-Bianco n.24/2017 potrebbero non risultare invece adeguati sul piano risarcitorio nel caso di macchine autonome, sebbene nel caso della struttura potrebbe sostenersi che come questa risponda oggettivamente ex art. 1228 c.c. della condotta negligente dell’ausiliario umano, lo stesso potrebbe valere anche nel caso di sinistro cagionato dall’ausiliario macchina artificiale; difatti i danni del difettoso funzionamento della macchina di intelligenza artificiale vengono imputati a chi utilizza la stessa nell’ambito della propria attività professionale. Lo stesso dovrebbe valere per il medico libero professionista, che si valga di strumenti autonomi.

Ad analogo risultato si potrebbe poi pervenire anche applicando le regole sulla responsabilità extracontrattuale, soprattutto nel caso di responsabilità oggettiva da cose in custodia ex art. 2051 c.c.

Nel caso invece del medico dipendente /ausiliario, chiamato dalla struttura all’esecuzione della prestazione di cura, avvalendosi della macchina, se il danno trova origine in una sua imperizia, lo stesso risponde in via diretta, insieme alla struttura, a titolo aquiliano; la sua responsabilità potrebbe escludersi piuttosto nell’ipotesi in cui il sinistro sia determinato da una scelta imprevedibile della macchina, trattandosi in questo caso di un medico ausiliario e non valendo dunque il richiamo alla responsabilità per rischio di impresa

Infine il volume in commento sviluppa nell’ambito della robotica medica una considerazione più generale, a seguito della progressiva tecnologizzazione dell’uomo, sulla inviolabilità del corpo umano, sulle pratiche di potenziamento, di human enhancement secondo le istanze transumaniste nella duplice tipologia degli interventi “curativi” e “migliorativi”, sulla liceità di forme di stravolgimento corporeo conseguenti ad addizioni notevolmente invasive, e di prolungamento della vita o della coscienza anche dopo la morte del corpo nel solco dell’immortalità digitale.

Al di là delle pratiche di digitalizzazione della mente e della creazione in laboratorio di cervelli biologici autonomi, prospettiva che supera le stesse figure del cyborg-man o del cyborg-robot, appare ineludibile una riflessione sul mantenimento della condizione umana a fronte di una trasformazione identitaria frutto di uno snaturamento potenziativo-accrescitivo, dovendosi negare il diritto ad apportare al proprio corpo alterazioni tali da incidere sul patrimonio genetico e divenire in tal modo trasmissibili ereditariamente.

 

 

 

A cura di Valeria Montani

Back To Top