skip to Main Content

Intervista al Prof. Mauro Grondona in occasione del convegno: “Intelligenza Artificiale in medicina: responsabilità, consenso e dati”

Abbiamo intervistato il Prof. Mauro Grondona, ordinario di Diritto Privato all’Università di Genova, in occasione del convegno Intelligenza artificiale in medicina: responsabilità, consenso e dati, svoltosi lo scorso 30 maggio all’Università degli Studi di Bergamo. Con lui abbiamo approfondito alcuni dei principali temi emersi durante l’evento, tra cui la responsabilità legale nell’uso dell’IA in ambito sanitario, il consenso informato e la protezione dei dati personali.
Mauro Grondona è professore ordinario presso il Dipartimento di Giurisprudenza dell’Università di Genova, ove insegna Diritto Privato e Diritto Civile.
I suoi principali interessi di ricerca sono riconducibili soprattutto agli ambiti del contratto e della responsabilità civile, studiati nella prospettiva della cultura giuridica e della politica del diritto.

Fa parte della direzione di Danno e Responsabilità e di Storia Metodo Cultura nella scienza; insieme a Leysser L. León, dirige la collana di monografie Magisterium Iuris (Zela Editorial, Puno – Perú).

Il Prof. Mauro Grondona

Nel Suo intervento ha richiamato l’art. 2050 c.c. come possibile strumento di gestione del rischio medico legato all’IA. In che misura ritiene che questa norma possa ancora offrire una cornice efficace alla responsabilità sanitaria tecnologicamente mediata?

A prima vista, l’art. 2050 c.c. sembra una norma troppo vecchia per poter essere applicata a una materia così nuova e in movimento qual è quella di una ‘medicina tecnologicamente intelligente’ (che, poi, come ovvio, è una medicina che si avvale dell’intelligenza umana potenziata artificialmente sotto il profilo quantitativo, ma non creativo). In realtà, se lasciamo da parte un momento la lunga e combattiva (e a ben vedere nemmeno del tutto conclusa) riflessione, che ha portato ad affermarsi come maggioritaria l’idea che l’art. 2050 contiene una regola di responsabilità oggettiva, e se ci concentriamo invece sulla Relazione al codice civile (un documento che non ha solo una ovvia rilevanza storiografica, ma ha anche una rilevanza operativa – certo, pure per marcare alcune distanze e alcune indubitabili discontinuità tra ieri e oggi), vediamo che il tema del pericolo e del rischio è strettamente connesso a quello della colpa (e in particolare quello della diligenza: non una diligenza generica, ma specifica, in relazione alle caratteristiche della prestazione e quindi della condotta ‘ottimale’, in perfetta coerenza con il comma 2 dell’art. 1176 c.c., e, oggi, con la teoria dei doveri di protezione e dell’obbligazione come rapporto complesso: una complessità certamente responsabilizzante, ma la maggiore responsabilità può essere predicata a condizione che ci sia lo spazio per una rimproverabilità del soggetto agente). Ma torniamo appunto alla Relazione, che, in sostanza, ci dice: quando l’attività è pericolosa, è ovvio che il danno sia prevedibile (alla lettera scrive: la prevedibilità del danno è in re ipsa e il soggetto che svolge l’attività pericolosa deve agire tenendo conto del pericolo per i terzi). Io penso che si possa allora recuperare una responsabilità fondata sulla colpa (in senso ampio e soprattutto in senso tecnologico-professionale), per svolgere un ragionamento che segue due direzioni. La prima è la seguente: quando pensiamo alle applicazioni sanitarie dell’IA dobbiamo concludere che siamo di fronte a attività pericolose? Io direi di no, almeno tendenzialmente. La ragione è molto semplice: è la stessa tecnica che, procedendo e affinandosi, elimina, o attenua, il pericolo. Una tecnica impiegata (e anzi soggetta a un impiego crescente, grazie al fatto che gli errori verranno corretti grazie alla costante sperimentazione, e quindi grazie agli impieghi concreti: da cui il classico circolo virtuoso popperiano della conoscenza) non è una tecnica pericolosa, ma potrà essere una tecnica rischiosa, o che, al momento, non garantisce ancora una buona probabilità circa il conseguimento del risultato sanitario sperato. Lo spazio del rischio si sostituisce così a quello del pericolo (e anche qui si tratta di una, progressiva e non necessariamente completa, sostituzione realizzata grazie allo stesso progresso tecnico), e del resto è anche ovvio che una prestazione tecnicamente raffinata può (tendenzialmente) presentare un tasso di rischio più elevato, rispetto a una prestazione priva di complessità tecnica (ma il paziente che, ad es., accetta di utilizzare su di sé una tecnica nuova, ovviamente accetta il rischio, anche a fronte dei benefici che potrà conseguire, al di là dell’esito sanitario: cure completamente gratuite; eventualmente, taluni incentivi economici – da questo punto di vista, si può aggiungere che un’autonomia contrattuale pensata nella duplice prospettiva del paziente, che vuole guarire, e del medico, nonché della struttura, che vogliono sperimentare, affinare, migliorare le tecniche di cui già dispongono, può dar vita a molti contratti tagliati su misura, in cui la dimensione del rischio e della responsabilità venga adeguatamente individuata e calibrata). Se allora si cerca di valorizzare l’art. 2050 nella prospettiva di una parallela valorizzazione della responsabilità per colpa, l’area della responsabilità (gravante sulla struttura o sul soggetto che abbia utilizzato quella particolare procedura o quel particolare strumento tecnico, ovvero gravante sul soggetto che quello strumento ha prodotto) è la stessa area all’interno della quale sia ravvisabile (ovvero sia ricostruibile, all’interno dell’istruttoria processuale) un profilo di colpa del soggetto che sarà poi chiamato a risarcire il danno. Mi rendo conto che, presentata la questione in questi termini, sembra una rivendicazione un po’ stucchevole del ritorno alla colpa, nella vecchia prospettiva della sanzione e quindi della responsabilità come sanzione e non come rimedio, ma, in realtà, non si tratta di questo. Se partiamo dal presupposto che la responsabilità civile (qui in particolare quella extracontrattuale, ma in certa misura anche quella contrattuale) è un meccanismo che serve a far sì che un determinato costo economico vada a gravare sulle spalle di chi lo ha provocato senza una ragione giuridicamente fondata, mi pare ovvio che, tanto più l’attività, la condotta, l’azione, il procedimento sono contraddistinti da un elevato tasso di raffinatezza tecnica, quanto più la responsabilità potrà e dovrà scattare se e solo se sia individuabile (prima sul piano tecnico e poi su quello giuridico) lo specifico elemento di criticità, da cui il danno: di certo, non potrà essere il danno in sé a rappresentare questo elemento (che è anche un’esigenza sociale, cioè di protezione sociale, senza dubbio riconducibile a una responsabilità civile ‘solidaristica’). Il danno non basta per far scattare la responsabilità. Del resto, anche pensando solo all’art. 2043 c.c., il danno dev’essere ingiusto. E questa ingiustizia del danno può oggi seguire strade diverse, che si intrecciano anche con la pretesa (individuale e sociale) a un rigore (di progettazione e di esecuzione) che è un volto della responsabilità per colpa (la colpa quale criterio di imputazione, in questo senso, è un incentivo al miglioramento e al continuo sviluppo tecnologico). Del resto, ancora nella Relazione (e sempre a proposito dell’art. 2050) si scrive espressamente che la strada della responsabilità oggettiva, ovvero della pura causalità, è stata scartata perché antisociale e antieconomica, tale da scoraggiare attività e iniziative feconde. Questo discorso, se fatto nella prospettiva dei contemporanei e trasversali impieghi della tecnica, può senza troppa difficoltà tradursi in questo senso: poiché la tecnica rappresenta un beneficio sociale, e poiché (e qui pensando in particolare alla tecnologizzazione del rapporto medico/paziente) l’individuo che alla tecnica si affida lo fa per avere un beneficio (che tendenzialmente ci sarà), allora, nel caso in cui, invece, l’individuo subisca il danno, il risarcimento ci sarà sì, ma a condizione che sia individuabile (anche in termini probabilistici) la causa che lo ha determinato, e a condizione che quella causa sia riconducibile alla sfera di controllo del soggetto che il procedimento ha utilizzato o al soggetto che il procedimento ha realizzato. Insisto: proprio la responsabilità per colpa funziona come incentivo al miglioramento e all’affinamento della conoscenza. E tutto questo porta, anche, a una riflessione sul rapporto medico/paziente: più la medicina si tecnologizza, e meno il paziente può pretendere quel pieno rispetto del consenso informato (che è poi spesso una pura finzione, nel segno di una trasparenza tutta di facciata e vuota di contenuto), sia perché il paziente non capirebbe, sia perché l’affidamento al medico porta con sé, almeno in certa misura, la rinuncia a capire. Mi affido a chi sa più di me, e affidandomi a questa persona, confido, e nell’attività umana e nella tecnica che proprio l’attività umana rende strumento concreto di intervento, e di cura (e qui si apre infatti lo spazio della, e per la, responsabilità medica).

 

In un contesto in cui la società sembra accettare il rischio tecnologico, come si riflette questo mutamento culturale sulla struttura della responsabilità civile?

Il contesto contemporaneo è un contesto fisiologicamente tecnologizzato (e che non rinuncerebbe facilmente ai vantaggi della tecnologia: anche chi la rifiuta perché non la comprende, certo la utilizza; e del resto umanità e tecnologia vanno, come sono sempre andate, di pari passo: non c’è una umanità che esiste indipendentemente dalla tecnologia, e non c’è una tecnologia che esiste indipendentemente dall’umanità). Un contesto del genere (qui interviene il ruolo ordinante del diritto, ma anche il ruolo della teoria politica quale laboratorio in vista della ‘società giusta’ – concetto storicamente relativo, ma irrinunciabile) non può essere (o non dovrebbe essere, in chiave antropologica) avverso al rischio (e l’avversione al rischio, quando vi sia e quando sia di massa, è un segnale, a mio avviso negativo e da contrastare, di rifiuto della responsabilità). Al contrario, in un contesto del genere, l’accettazione del rischio (sociale e individuale) rappresenta un argomento (a primaria rilevanza antropologica, ovviamente, e poi politica e giuridica) a favore di una rivisitazione critica (al fine di un recupero, pur rinnovato e adeguato alle esigenze del presente) della responsabilità per colpa. Del resto, il rischio è insito nella libertà. La ricerca come tale (qualunque ricerca), se è vera ricerca, è rischiosa, cioè fa sì che il ricercatore o la ricercatrice non conoscano ex ante i risultati della ricerca (altrimenti saremmo di fronte non a un vero lavoro di ricerca, ma un riassunto, a una descrizione, a una inutile compilazione o ricapitolazione). La libertà e il rischio, a loro volta, connotano la società complessa, e l’intero fenomeno della complessità (su questi aspetti, desidero segnalare un contributo molto significativo, perché lascia alle sue spalle molto di quel dogmatismo immobilizzante che ha connotato, e ancora in parte connota, la dottrina civilistica italiana, la quale, invece, dovrebbe essere maggiormente disposta a rischiare, e quindi a sbagliare, nell’idea di quell’affinamento progressivo della conoscenza, e quindi della fantasiosa innovazione, ma più nella linea della continuità che non nella linea della discontinuità, che è una delle principali lezioni di Popper, contro Kuhn: mi riferisco a Angelo Falzea, Complessità giuridica, in Enciclopedia del diritto, Annali, I, Milano, Giuffrè, 2007, pp. 201-218) impone, al contempo, l’accettazione del rischio e quindi una buona dose di autoresponsabilità. L’accettazione del rischio è finalizzata al conseguimento del beneficio, o comunque è finalizzata al potenziamento della speranza di ottenere un beneficio.

 

Ha citato Epstein e l’idea di “regole semplici per un mondo complesso”. È davvero possibile, secondo Lei, semplificare la normazione dell’IA in medicina senza compromettere la tutela sostanziale?

Ho citato Epstein [riferendomi in particolare a Richard A. Epstein, Regole semplici per un mondo complesso (trad.it.). Introduzione di M. Clarich, Macerata, Liberilibri, 2012] per ragioni schiettamente ideologiche: io condivido l’idea (che ovviamente è una concezione del mondo, che è quindi una ideologia, che è quindi una visione politica delle cose, e qui, in particolare, dei rapporti giuridici: ma il diritto è politica, cioè è continua ricerca dell’ordine complessivo delle azioni individuali) per cui è sempre preferibile l’errore frutto di una libertà che l’assenza di errore frutto di coercizione. Del resto, in questo senso, solo se c’è libertà ci può essere responsabilità. E anche nell’ambito dell’IA, ovviamente, lo spazio della responsabilità è parallelo a quello della libertà. Direi di più: è proprio all’interno del tentativo di superare un’attuale frontiera che si individua un’area ampia di libertà (senza la quale non ci potrebbe essere ricerca e sviluppo, e quindi superamento) e la parallela area di responsabilità: una responsabilità che, però, può essere affermata se si individua un elemento non soltanto imputabile, cioè riferibile, al ‘responsabile’, e alla sua sfera di azione, ma un elemento che ha prodotto il danno quale conseguenza, potremmo anche dire immediata e diretta, ai sensi dell’art. 1223 c.c. (e quindi prevedibile, se adottiamo la lettura parallela tra artt. 1223 e 1225 c.c.), di un qualche ‘errore’ (termine da intendersi nel senso più ampio possibile) del soggetto, che solo su questo presupposto potrà essere qualificato come responsabile, e quindi obbligato al risarcimento.

 

Lei ha affermato che il diritto dovrebbe guidare, non solo inseguire, l’innovazione. Quali criteri ritiene centrali per costruire una responsabilità efficace nell’ecosistema medico-digitale?

Se il diritto è un grandioso meccanismo di ordinamento sociale (ma ordinamento in un senso ben preciso: giuridicizzare, progressivamente, le regole sociali, ovvero le regole che spontaneamente vengono alla luce e si consolidano. Del resto, un giurista al contempo concettualmente rigoroso e socialmente, quindi culturalmente, sensibile alla realtà materiale, alla sostanza delle cose, che è poi sempre destinata a prevalere sulla realtà solo apparente dei concetti, quale fu Tullio Ascarelli [Premesse allo studio del diritto comparato, in Id., Saggi giuridici, Milano, Giuffrè, 1949, pp. 3-40, a p. 30], ha saggiamente scritto: «Studiare il diritto, senza prendere in considerazione le norme sociali, significa esaminare solo una delle due facce di una medaglia»), dobbiamo sempre immaginare le regole giuridiche quali efficaci incentivi e disincentivi. Direi che non ci possono essere dubbi che, se il diritto pensa di reprimere o limitare l’innovazione, perde in partenza la partita (come sempre, del resto, è accaduto – e, aggiungerei: fortunatamente, per l’umanità); piuttosto, il diritto, se osserva l’enorme ambito dell’innovazione, ha il compito di favorire quelle regole di responsabilità che non vanno contro l’innovazione e che colpiscono ogni mancanza ingiustificata di sufficiente rigore o attenzione. Da questo punto di vista, la società del rischio, la società complessa è la società della responsabilità. Una responsabilità che naturalmente richiede l’elaborazione di standard e di criteri di accertamento, i quali sono ovviamente fatti oggetto di una ‘rivisitazione tecnologica’: la colpa, come la negligenza, come la stessa responsabilità, non sono concetti statici, perché dipendono dalle funzioni politico-sociali che a questi concetti vengono assegnate, dal contesto sociale, cioè dalle esigenze sociali, le quali inevitabilmente conformano il diritto. Da questo punto di vista posso forse aggiungere che (del resto, come sempre) il primo aspetto che viene in evidenza è quello culturale, delle persone e quindi dell’intera società. Una società timorosa della tecnica (o per reazionarismo psicologico, o per immobilismo ideologico) esprimerà una tendenziale avversione al rischio, da cui una tendenziale espansione della responsabilità oggettiva, da cui una deresponsabilizzazione individuale (che non è un paradosso). Ma se il diritto è primariamente cultura, e se la cultura ha una intrinseca forza trasformativa, è chiaro che c’è un compito culturale che va ricondotto alla generale funzione ordinante del diritto: un diritto, beninteso, che mette ordine nella realtà per come la realtà spontaneamente emerge, e che non assegna, invece, alla realtà spontanea un ordine estraneo a essa. Non c’è allora alcun dubbio che la tecnologia sia un fattore socialmente decisivo, ai fini di quella spontanea formazione della società che il diritto dovrebbe certo regolare, facendola propria, quale parte di sé. Non è però detto che questa sia una visione diffusa, e non solo in Italia.

 

 

Back To Top