La Commissione Europea ha inviato ad Alphabet, società madre di Google, due serie di conclusioni…
Intervista alla Prof.ssa Simona Cacace. Intelligenza artificiale e autodeterminazione terapeutica

Simona Cacace è ricercatrice di Diritto privato presso il Dipartimento di Giurisprudenza dell’Università degli Studi di Brescia, dove tiene per affidamento il corso di Biodiritto. È componente del Collegio docenti del Dottorato ‘Intelligenza Artificiale in Medicina e Innovazione nella Ricerca clinica e metodologica’ (Dipartimento di Scienze Cliniche e Sperimentali, Università degli Studi di Brescia) e del Consiglio scientifico del Master di II livello in ‘Intelligenza artificiale, mente e impresa’ (Università degli Studi di Brescia). E’ docente di Emerging Technologies Law nell’àmbito del corso di dottorato nazionale in Intelligenza Artificiale (sede amministrativa ‘Sapienza’ Università di Roma). Nel corrente anno ha conseguito l’abilitazione per l’accesso al ruolo di professore universitario di seconda fascia.
La Prof.ssa Simona Cacace
Nell’intervento che ha curato per l’evento Regulatory Models and Principles to Handle and Rule Artificial Intelligence in the European and Asia-Pacific Area, ha affrontato il tema dell’intelligenza artificiale e dell’autodeterminazione terapeutica. Potrebbe spiegarci come l’IA sta influenzando l’autonomia dei pazienti nello svolgimento della relazione di cura e di fiducia e quali sono le principali implicazioni etiche e giuridiche in questo contesto?
Con l’avvento di sistemi intelligenti impiegati in àmbito sanitario, ai quattro noti princìpi di etica biomedica formulati nel 1979 da Childress e Beauchamp (beneficenza, non maleficenza, autonomia e giustizia) se ne è aggiunto un quinto, quello della spiegabilità.
Il requisito della spiegabilità dell’intelligenza artificiale ai fini di un suo utilizzo etico presenta però un duplice profilo: il primo, connesso alla necessità di comprensione del funzionamento del sistema; il secondo, relativo piuttosto all’individuazione del soggetto responsabile di tale funzionamento, specie nell’ipotesi di accadimenti dannosi.
In particolare, la spiegabilità formulata nel primo senso, come intelligibilità dell’intelligenza artificiale, è suscettibile di condizionare e di mettere a repentaglio, a determinate condizioni, l’operatività stessa del principio di autonomia individuale e la configurabilità di un consenso informato del paziente al trattamento sanitario.
Con questo non si vuole certo sostenere che il paziente debba essere messo a conoscenza delle complessità tecniche dell’operato sanitario né che egli debba essere destinatario di una informazione attinente all’impiego del sistema intelligente e alle modalità del suo funzionamento, ai fini della validità del consenso raccolto.
Poiché il consenso informato alla base della relazione di cura e di fiducia è da intendersi quale luogo di incontro fra l’autonomia decisionale del paziente e la competenza, l’autonomia professionale e la responsabilità del medico (art. 1, 2° co., l. n. 217/19), la scelta di impiegare il sistema di intelligenza artificiale riguarda il professionista e le sue competenze, secondo l’opportunità, ritenuta o meno, di utilizzare l’ultima tecnologia al fine di ottenere il risultato migliore, di minimizzare i rischi e ottimizzare le risorse.
L’IA può offrire dunque benefìci significativi nel campo della medicina, ma è anche suscettibile di pregiudicare la relazione medico-paziente. Come possiamo trovare un equilibrio tra l’adozione responsabile delle tecnologie di IA e la preservazione dell’empatia e della personalizzazione delle cure?
Come sempre quando si tratta di nuove tecnologie, è necessario interrogarsi riguardo agli effetti del progresso scientifico in campo giuridico, nonché in merito alla persistente validità di una disciplina normativa ideata sulla scorta di presupposti fattuali che ad un certo punto potrebbero rivelarsi obsoleti e perciò superati.
Il Parlamento europeo ha in più sedi posto in evidenza il guadagno che deriva, in termini di tutela del diritto alla salute, dall’interazione fra i sistemi di intelligenza artificiale e la componente umana, in particolare nella realizzazione di operazioni chirurgiche ad alta precisione e in àmbito diagnostico, ma anche nell’esecuzione di procedure ripetitive e nello svolgimento di compiti di assistenza personalizzati.
A fronte del conseguimento di tali indubitabili vantaggi, è però necessario porre attenzione alle ripercussioni che inevitabilmente si presentano sulla relazione paziente-medico.
Le enormi potenzialità offerte dall’IA vanno considerate come la preziosa opportunità con cui la tecnica allarga gli orizzonti dell’etica, consente di risparmiare il tempo altrimenti speso in operazioni di routine, ricava più tempo per la relazione del medico con il paziente e accresce, dunque, anziché neutralizzare, gli spazi di ascolto e di contatto. L’indicazione normativa secondo la quale «il tempo della comunicazione tra medico e paziente costituisce tempo di cura» (art. 1, 8° co., l. n. 217/19) rinviene così massima espressione.
Nel preservare la piena umanità della relazione terapeutica, il sapere su di sé del paziente non viene perduto e il sapere professionale del medico è elevato all’ennesima potenza dall’ausilio tecnologico, a patto però che quest’ultimo si collochi e operi sempre sotto il controllo, la supervisione e la responsabilità dell’essere umano.
L’utilizzo dell’IA in àmbito medico solleva questioni etiche e di responsabilità. Come si possono garantire i diritti dei pazienti senza rinunciare alle potenzialità dell’IA?
Si è detto come la spiegabilità dell’algoritmo riguardi soprattutto il medico, perché funzionale all’assunzione di responsabilità nei confronti del proprio paziente.
Il sistema di intelligenza artificiale potrebbe infatti essere stato programmato su un campione di dati non sufficientemente rappresentativo e risultare perciò non del tutto adatto a svolgere le prestazioni sanitarie per cui viene impiegato. La discriminazione algoritmica e il vizio da bias cognitivo può riguardare la mancata considerazione di caratteristiche oggettive del singolo paziente del caso concreto, con una conseguente erronea classificazione dell’ammalato e una minore attendibilità dello strumento in termini diagnostici, prognostici e terapeutici.
Tale discriminazione non è certo opera della macchina, bensì dell’essere umano che l’ha programmata, che ha selezionato i dati ed elaborato gli algoritmi. La natura di queste scelte in materia di inserimento dei dati di programmazione e il fatto che il sanitario possa sondare, dominare, verificare le indicazioni e le decisioni della macchina sono elementi, entrambi, dai quali direttamente dipende la prestazione professionale del medico e il buon esito della stessa.
Al rischio di pregiudicare la professionalità del medico si aggiunge, però, anche l’insidia della neutralizzazione del complesso valoriale e dell’autonomia decisionale del paziente, nella consapevolezza che una decisione sanitaria non è adottata esclusivamente sulla base delle informazioni cliniche a disposizione e, dunque, che il miglior trattamento per un paziente potrebbe non essere tale per un altro soggetto, benché nelle medesime condizioni.
La discriminazione algoritmica potrebbe infatti riguardare anche caratteristiche soggettive dell’ammalato, suscettibili di condizionare e di determinare la sua scelta terapeutica, che invece in ipotesi viene pretermessa e del tutto cancellata dall’algoritmo. Lungi dall’essere neutrale, l’algoritmo appare in questo senso esso stesso portatore di valori.
In conclusione, come può in questo contesto trovare adeguata ed efficace tutela l’autodeterminazione del paziente, per garantire un uso etico e sicuro dell’IA nel settore terapeutico?
L’accettazione sociale delle applicazioni di intelligenza artificiale e l’eventuale diffidenza ed esitazione nell’impiegarle dipendono dal grado di affidabilità (in termini di risultati e di prestazioni) e di trasparenza di queste nuove tecnologie.
L’esigenza di prestare fiducia a un sistema «opaco» rischia altrimenti di consacrare una nuova era del rapporto medico-paziente, caratterizzata dal «paternalismo della macchina» (computer knows the best), che tutto sa e tutto decide: una medicina ‘delle’ macchine e non ‘con’ le macchine, secondo quanto già rilevato dal Comitato Nazionale per la Bioetica e dal Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita nel parere Intelligenza artificiale e medicina: aspetti etici.
È necessario allora lavorare ad una tecnologia che prenda altresì in considerazione la dimensione valoriale umana e del singolo paziente (value and flexible design), laddove la parola ‘valore’ in tale contesto fa riferimento a ciò che una persona o un gruppo di persone considera importante nella vita e per la vita. Pare questo l’unico modo per garantire l’adozione di scelte condivise fra medico e paziente, affinché il sistema intelligente sia in grado di offrire opzioni terapeutiche individualizzate. L’intelligenza artificiale programmata e usata in una maniera eticamente informata può così diventare uno strumento molto potente di promozione dell’autonomia del paziente.
Il perseguimento di questo risultato impone però un dialogo serrato fra bioeticisti, giuristi, medici, ingegneri e informatici.