Ininfluente anche l'assenso del lavoratore in un rapporto sbilanciato e mai davvero libero di Federica Paolucci e Oreste…
Scelte, algoritmi e responsabilità: l’autodeterminazione del paziente nell’era dell’IA. Intervista al Prof. Matteo Galletti

Matteo Galletti è professore associato di Filosofia morale e Bioetica nell’Università degli Studi di Firenze, dove è anche coordinatore della Commissione etica per la ricerca. È presidente del Comitato Etico Territoriale Area Vasta Toscana Centro. Si occupa di etica teorica e applicata e ai rapporti tra etica e politica. Ha recentemente pubblicato La pillola per diventare buoni. Etica e potenziamento morale (Roma 2022; trad. inglese presso Trivent 2024); Paternalismo e cura. Etica della salute individuale e collettiva (Firenze 2024) e ha curato con Silvano Zipoli Caiani il volume collettaneo Filosofia dell’intelligenza artificiale. Sfide etiche e teoriche (Bologna 2024).
Il Prof. Matteo Galletti
L’intelligenza artificiale si inserisce in un contesto clinico già segnato da asimmetrie conoscitive. In che misura la sua introduzione ridefinisce il concetto di autodeterminazione del paziente? È possibile che emerga una nuova forma di paternalismo tecnologico?
La bioetica, fin dalla sua nascita negli anni 60-70, ha messo al centro della sua riflessione il problema della tutela dell’autodeterminazione del paziente che tradizionalmente si trovava in una condizione di subordinazione rispetto al medico. Se il divario di conoscenze e competenze tra medico e paziente era ovviamente insanabile, tuttavia c’era uno spazio per rivendicare la centralità della persona nel momento decisionale nella relazione di cura. Una delle grandi conquiste della riflessione bioetica è stata proprio questa: il paziente competente ha diritto di essere informato, se lo desidera, su tutto ciò che riguarda la sua patologia e le terapie disponibili. Deve essere aiutato nella scelta ma spetta a lui l’ultima parola, perché sono in gioco il suo corpo, la sua mente, la sua salute e la sua vita. E questa “rivoluzione” era necessaria tanto più che la medicina stava subendo un processo di alta tecnologizzazione. Oggi il contesto è ancora più complesso: molte volte non si tratta più di un rapporto uno a uno, ma il paziente è seguito da più specialisti e da più figure professionali, la tecnologizzazione della medicina e dell’assistenza riceverà un’ulteriore spinta grazie all’intelligenza artificiale e alla robotica e sono stati sviluppati modelli decisionali condivisi. Ciò significa che la relazione non consta di una semplice trasmissione di informazioni che lascia l’onere della decisione solitaria al paziente. La rivendicazione dell’autodeterminazione del paziente rimane valida ma ci si chiede se il nuovo contesto sarà in grado di tradurla in pratica. Del resto, una rivendicazione ha senso solo quando rivolta ad altri esseri umani. Ma quando la proposta clinica è elaborata da un’intelligenza artificiale? La promozione e valorizzazione dell’autodeterminazione in un processo di condivisione si basa sulla possibilità di creare una relazione di fiducia e talvolta ciò richiede che il paziente possa chiedere ragioni e giustificazioni di certe raccomandazioni diagnostico-terapeutiche. La sfida è capire in che modo l’IA può sostenere questo tipo di relazione, soprattutto perché queste tecnologie operano spesso come black boxes, come dispositivi opachi che non danno ragione delle conclusioni a cui arrivano. Una soluzione potrebbe essere rendere l’IA più trasparente. Da una parte lo sviluppo di intelligenze artificiali più trasparenti e dall’altra la presenza di un agente umano capace di sostenere la relazione potrebbero essere correttivi importanti.
Le tecniche di nudging digitale, derivate dalle scienze comportamentali, sono ormai impiegate anche nella comunicazione medico-sanitaria. Quali implicazioni etiche presenta l’utilizzo di queste strategie in relazione all’autonomia e al consenso informato?
Il nudging è uno strumento e come tale può essere usato in modo benevolo o malevolo. Anzi, si parla oggi di dark nudge, spinte gentili “oscure” per indicare un uso delle scienze comportamentali nella costruzione di architetture della scelta che spinge gli individui a adottare comportamenti malsani o contrari ai loro interessi. Se le spinte gentili, digitali o non digitali, sono utilizzate come strumenti per correggere un’irrazionalità o incapacità di decidere razionalmente che viene attribuita di default al paziente, questo impiego solleva più di un dubbio etico, perché si ritorna nell’equivoco paternalista che prima si diceva. In questo caso è probabile che gli obiettivi che vale la pena di perseguire siano scelti unicamente dal professionista che cerca con il nudging di influenzare il paziente affinché la sua scelta si allinei con essi. Quando invece chi cura architetta ambienti di scelta affinché emergano i valori, gli interessi, le preferenze del paziente (in breve: la sua identità pratica) per condividere scelte cliniche più coerenti con questo complesso, allora ci troviamo di fronte a un uso legittimo dal punto di vista etico. Inoltre, ritorna l’esigenza della trasparenza nel mondo in cui si struttura la relazione.
In casi estremi, come quello del suicidio medicalmente assistito, l’IA può essere chiamata a valutare l’idoneità del paziente o addirittura a eseguire procedure. Quali sono i limiti morali e giuridici oltre i quali la delega alla macchina diventa problematica?
Ci si sta interrogando sulla questione che è delicatissima, anche senza mettere in gioco l’intelligenza artificiale. Attualmente nel nostro Paese è accesso il dibattito sulla morte assistita e sull’opportunità che essa trovi una collocazione all’interno del nostro ordinamento giuridico, dopo la sentenza della Corte costituzionale. Per adesso le ipotesi di introdurre l’IA nella fase di accertamento ed esecuzione della procedura di morte assistita appartengono soprattutto alla letteratura filosofica e bioetica internazionale. Si sono immaginati alcuni possibili impieghi. (1) Valutare se il paziente rispetta tutti i requisiti per essere candidato al suicidio medicalmente assistito; (2) Valutare se la scelta del suicidio medicalmente assistito sia in linea con i valori dei pazienti; (3) eseguire la procedura.
Sull’ultimo uso mi limito a segnalare l’esistenza già oggi di capsule in cui il paziente può entrare autonomamente e attivare così un meccanismo che nebulizza azoto liquido all’interno, facendo perdere conoscenza alla persona dopo poche inalazioni e portandola alla morte nel giro di pochi minuti. Si può immaginare un’implementazione futura dell’IA su queste capsule, che accerti l’identità del paziente o la sua capacità decisionale, oltre a controllare altri parametri per garantire che tutto avvenga secondo quanto previsto. Sono però i primi due usi che sollevano domande. Il primo indica una tendenza già in atto, che prevede un cambiamento degli standard valutativi e uno spostamento dell’autorità dai medici alle macchine. In questo dell’IA è implicito che la valutazione del sistema automatico è pari o superiore a quella dell’essere umano. Ma cosa accade nel caso in cui le due non combacino? Come risolvere il disaccordo? Come giustificare l’inclinazione per preferire l’una o l’altra? Come è stato giustamente osservato, se la “prova” richiesta è l’esibizione di ragioni per la valutazione fatta, l’IA potrebbe avere qualche difficoltà per via dell’opacità algoritmica. Una soluzione, come si è già accennato in precedenza, potrebbe essere rendere l’IA più trasparente. Tuttavia, è opportuno riflettere sul fatto che delegare l’accertamento alla macchina comporta comunque una profonda trasformazione nell’attribuzione di autorità agli specialisti in medicina.
Il secondo uso, per accertare la coerenza tra la decisione di morte assistita e i valori del paziente, solleva interrogativi diversi. Non è chiaro perché la coerenza debba essere un valore nelle scelte di fine vita. In realtà è sufficiente che la decisione sia consapevole, cioè informata e lucida, ma non dovrebbe essere rilevante quale collocazione abbia nella storia valoriale della persona. È cosa diversa dal chiedersi in quale contesto tale decisione è stata maturata e se quindi ci possono essere alternative disponibili che il paziente potrebbe scegliere. Insistere su questo punto potrebbe portare a forme mascherate di paternalismo, suggerendo che c’è un modo in cui il paziente dovrebbe scegliere che non riesce a vedere perché confuso o incapace di vederlo.
Ripeto però che nel nostro Paese, prima di parlare di IA e morte assistita, dobbiamo ancora far maturare il dibattito sulla morte assistita.
Gli ambienti digitali costruiti su profilazioni predittive pongono interrogativi radicali sull’identità personale. In che modo l’identità costruita algoritmicamente può entrare in conflitto con l’autenticità delle scelte individuali?
Il meccanismo della profilazione predittiva e dei sistemi di raccomandazione è molto attraente: consente all’utente dell’ambiente digitale di avere suggerimenti per acquistare beni o scegliere servizi che possono rientrare nel suo interesse. Niente di meglio. Anche in questo caso conviene però riflettere su alcune implicazioni. Sebbene navigare in uno shop digitale per acquistare libri e avere suggerimenti di acquisto possa essere comodo, se estendiamo questo funzionamento in altre sfere (raccomandazioni politiche o di servizi sanitari o di welfare) possiamo vedere alcuni problemi. La profilazione non è solo ricostruzione di una presunta identità costituita da gusti e preferenze sulla base delle scelte passate, ma è anche la categorizzazione della persona. Si viene identificati in un certo modo. In certi contesti, questa identificazione potrebbe essere associata con altri dati (ad esempio, la geolocalizzazione in una zona in cui si concentra una certa etnia) e generare proposte discriminatorie. Inoltre, la profilazione struttura i suggerimenti futuri sulla base del passato, potenzialmente così togliendo all’utente quelle che sono state chiamate “opportunità identitarie”, ossia l’opportunità di essere esposti alla diversità e, quindi, di interrogarsi su altri modi possibili di scegliere e vivere. I sistemi di raccomandazione rischiano di predeterminare o comunque influenzare con un certo successo la scelta personale in una sola direzione. Le architetture digitali possono quindi alimentare bias di conferma, bolle di filtraggio e camere dell’eco, promuovendo ambienti chiusi e standardizzati, che talvolta perpetuano pregiudizi impliciti e generalizzazioni indebite.
È realistico pensare di costruire ambienti digitali “a misura d’uomo” che rispettino l’autonomia e l’identità morale dei soggetti? Quali strumenti, normativi o progettuali, ritiene essenziali per un uso eticamente sostenibile dell’IA in medicina?
Non è irrealistico, non è una caratteristica intrinseca degli ambienti digitali di produrre gli effetti a cui si è accennato prima. Possono esserci modi di promuovere l’autonomia degli individui, spetta ai tecnici individuarli tenendo conto dei vincoli etici che è possibile immaginare per evitare conseguenze deleterie. Serve contestualmente anche un’educazione all’uso critico e responsabile da parte degli utenti.
In medicina, l’IA sta offrendo moltissime opportunità e strumenti per migliorare le capacità diagnostiche e terapeutiche, anche nel campo delle malattie rare. C’è solo da augurarsi che sia così anche in futuro. Credo che sia utile, anche per lo sviluppo della tecnologia in medicina, sperimentare sempre di più una progettazione sensibile ai valori: nel momento in cui si disegna una tecnologia ci si interroga su quale sia il modo migliore di farlo per rispondere sia a esigenze tecnico-pratiche sia a esigenze etiche. Come molti hanno sostenuto, gli oggetti tecnologici non sono neutrali, nel senso che il modo in cui sono progettati incarna valori etici e politici. Occorre sia avere chiaro l’orizzonte etico sia implementarlo durante la progettazione, in modo da avere tecnologie sempre più eticamente sostenibili.