C’è già chi parla di sentenza storica. E in effetti, quella della Corte di Giustizia…
Intervista al Prof. Luca Grion. Etica delle macchine e responsabilità umana: la morale al tempo dell’intelligenza artificiale
Luca Grion è professore associato di Filosofia Morale all’Università degli Studi di Udine e presidente dell’Istituto Jacques Maritain di Trieste. È direttore della SPES (Scuola di Politica ed Etica Sociale) e, insieme a Giovanni Grandi, ha fondato “Anthropologica. Annuario di studi filosofici” di cui, fino al 2022, è stato direttore. Si occupa di questioni etiche connesse a diversi ambiti di vita: dall’informatica all’economia, dalle professioni di cura allo sport.
Tra le sue più recenti pubblicazioni: Il senso dello sport. Valori, agonismo, inclusione (Mimesis, 2022), Bernard Suits. Filosofia del gioco (Morcelliana, 2021) e Chi ha paura del post-umano? Vademecum dell’uomo 2.0 (Mimesis, 2021).
Il Prof. Luca Grion
Come si potrebbero bilanciare le grandi opportunità per la ricerca e l’aumento dei livelli di produttività con il rischio di deskilling derivante dall’ampio impiego delle macchine nell’ambito lavorativo?
Credo che questa sia, oggi, una questione particolarmente delicata. Prima di rispondere, cerco di richiamare brevemente i termini della questione. Giorno dopo giorno, le diverse forme di Intelligenza Artificiale (IA) stanno entrando sempre più prepotentemente nelle nostre vite, offrendo indubbi vantaggi nella misura in cui consentono di ottimizzare tempo, risorse e strategie. Quella che stiamo vivendo è una stagione di grandi e repentini cambiamenti, nella quale gli sviluppi dell’IA ci promettono molto: dai veicoli autonomi capaci di migliorare la sicurezza stradale, alla medicina personalizzata che salva vite; dall’automazione industriale che aumenta l’efficienza e la sostenibilità di processi produttivi, a sistemi di traduzione automatica in grado di abbattere ogni barriera linguistica; dalle tecnologie capaci di ridurre il consumo energetico, all’agricoltura di precisione. Comprensibile, quindi, l’entusiasmo che accompagna la trasformazione digitale e il fascino esercitato dall’IA. Tuttavia, mentre celebriamo queste potenzialità, non possiamo nasconderci i rischi connessi a un ricorso acritico a tali tecnologie. Tra questi, senza dubbio, vi è anche quello di poter perdere competenze che sarebbe bene non smarrire. La questione del deskilling affronta proprio questi nodi. Vediamo come.
È ovvio che quando una nuova tecnologia ci consente di svolgere un compito in modo più efficiente ed efficace tendiamo ad appoggiarci ad essa, anche accettando di perdere qualcosa pur di assicurarci livelli di performance superiori. Quasi nessuno manda più a memoria i numeri di telefono, sapendo di poterne conservare tantissimi sul telefono. E quello che diciamo per i numeri di telefono vale per moltissime altre informazioni. Certo questo implica un allenamento ridotto della nostra memoria, che tende a trattenere meno informazioni, ma la quantità di dati disponibili sui diversi device si è notevolmente accresciuta. Non è sempre facile, però, operare un corretto bilancio di guadagni e perdite. Lo si comincia a riconoscere, ad esempio, in alcuni ambiti professionali.
Ci si chiede, ad esempio, se un ricorso massivo a sistemi di IA nell’interpretazione di test diagnostici possa ridurre la capacità dei medici di interpretare autonomamente i referti e, più in generale, se possa indebolire la loro capacità di lettura clinica delle situazioni, privandoli di quella esperienza vissuta, sedimentata nel tempo, sino a oggi necessaria a far maturare competenze esperte. Più in generale, pensiamo ai diversi strumenti algoritmici utilizzati per affiancare decisioni umane (in ambito finanziario, assicurativo, giudiziario): nella misura in cui essi migliorano la loro affidabilità e dimostrano capacità analoga o superiore a quella umana, il rischio concreto è quello che inducano una sudditanza dell’uomo rispetto alla macchina e un accoglimento passivo dei suoi suggerimenti.
Analoghe preoccupazioni riguardano poi l’ambito formativo. Consideriamo il caso di uno studente che si appoggi abitualmente a strumenti quali Chat GPT, capace di svolgere in pochi istanti i compiti assegnati dai docenti; cosa comporta tale delega in termini di acquisizione reale di conoscenze e competenze? È evidente che renda di fatto inutile quel periodo di formazione. Ancora: se pensiamo a quanti lavori tipici dei periodi di apprendistato professionale potranno essere sostituiti da esecutori digitali, dovremmo chiederci cosa questo comporti per i giovani che stanno muovendo i primi passi all’interno di una professione. Se è vero, infatti, che la partnership tra IA e sapere umano esperto potenzia le performance del secondo, un ricorso diffuso all’IA per sostituire umani inesperti (ma in fase di formazione) rischia di compromettere le loro possibilità di crescita. In breve: se viene meno la possibilità di “fare gavetta”, perché quei lavori li potrà svolgere in modo più economico ed efficiente una IA, come far maturare competenze realmente esperte? Non solo. Far svolgere a sistemi algoritmici quelle tipologie di compiti elimina un’occasione sino ad ora ritenuta utile per selezionare i giovani più motivati e promettenti. Esempi concreti che dovrebbero sollecitare una riflessione prudente sul reale trade off che sempre implica il ricorso all’IA.
Quali sono le sfide principali nella ricerca di un modello etico adatto per le macchine considerando il pluralismo morale e la diversità di valori nelle società contemporanee?
Parlare di regolamentazione etica – non solo in riferimento alla trasformazione digitale, ma in generale – è una questione spinosa. Non esiste, infatti, un’unica etica condivisa alla quale fare riferimento. Esistono, piuttosto, una pluralità di sensibilità, di paradigmi e di tradizioni morali, spesso in conflitto tra loro. La questione cruciale, quindi, è capire quale etica dovrebbe guidare il nostro rapporto con la tecnologia, soprattutto quando si tratta di incorporarla nei sistemi automatici a cui affidiamo compiti decisionali.
Una possibile risposta potrebbe essere quella di chiedere l’opinione degli utenti finali, con l’obiettivo di uniformarsi, poi, al parere della maggioranza. In fondo sembrerebbe l’approccio più democratico. Per testare questa possibilità, tra il 2016 e il 2020 un gruppo di ricercatori del Massachusetts Institute of Technology (MIT) ha dato vita al Moral Machine Project, un progetto di ricerca che, sfruttando le potenzialità della rete, ha sottoposto a partecipanti di tutto il mondo una serie di dilemmi etici (cfr. https://www.moralmachine.net).
Sulla base delle risposte ottenute, i ricercatori hanno evidenziato l’esistenza di differenti cluster culturali; alcune culture, ad esempio, sembra riconoscano prioritario salvaguardare i più giovani, mentre altre privilegiano la protezione degli anziani. Questo esperimento ha reso evidente quanto sia complicato convenire su regole etiche condivise. Non esiste, infatti, una risposta univoca a dilemmi etici come quelli proposti dal Moral Machine Project. Tali decisioni dipendono da una varietà di fattori culturali, individuali e situazionali. Che fare, allora? È ragionevole pensare che le regole etiche possano semplicemente conformarsi alla media delle sensibilità etica dei suoi utilizzatori? Più in generale: è giusto ricondurre la validità delle norme morali all’opinione della maggioranza?
Pensando in particolare ai veicoli a guida automatica, c’è chi ha provato a suggerire una pista diversa: reputando centrale il valore dell’autonomia individuale, si è immaginato di poter inserire sui tali veicoli una “leva etica” che consenta al proprietario di scegliere tra un approccio utilitaristico, uno deontologista o, perché no, uno vocato al sacrificio personale pur di non nuocere ad altri. In questo modo la verità morale non viene messa ai voti, ma ciascuno può personalizzare il proprio veicolo coerentemente coi propri convincimenti. Tuttavia, anche questa soluzione non pare risolutoria. Sembra difficile che una comunità possa reggere senza valori e regole condivise, mentre la soluzione della leva etica pare promuovere una sorta di “anarchismo morale”.
Che fare allora? Una prima risposta, per quanto possa sembrare deludente, è quella di animare un dibattito pubblico su questi temi, affinché le diverse sensibilità etiche – e le rispettive ragioni – possano trovare un terreno di confronto e, auspicabilmente, di incontro. Quando ciò accade, mi sento di poter dire, qualche risultato positivo è possibile conseguirlo. Penso, ad esempio, al dibattito europeo che ha accompagnato l’iter legislativo dell’Artificial Intelligence Act.
In che senso l’Artificial Intelligence Act dell’Unione Europea ha saputo svolgere questo ruolo di mediazione tra le diverse sensibilità etiche?
L’Unione Europea, riconoscendo l’importanza di governare la trasformazione digitale per promuoverne le potenzialità positive e limitarne i rischi, si è posta l’obiettivo di individuare regole condivise capaci di garantire uno sviluppo dell’IA sicura e affidabile. Per conseguire tale risultato si è partiti dall’affermazione di alcuni valori-guida ritenuti imprescindibili: equità, privacy, dignità umana, responsabilità, spiegabilità, non discriminazione, controllo umano significativo. Il problema, ovviamente, non è riconoscere la validità di tali principi, quanto operare una traduzione in regole condivise. Molto spesso, infatti, il dibattito etico si divide non tanto rispetto ai principi generali, quanto alla loro “messa a terra” nel contesto di specifiche situazioni che costringono a stabilire un ordine di priorità quando non possono essere perseguiti allo stesso modo e allo stesso tempo. Cosa fare, ad esempio, quando la sicurezza pubblica confligge con la privacy personale? Cosa quando l’efficacia di un sistema decisionale comporta l’opacità dei suoi criteri di scelta? La soluzione prospettata dall’Artificial intelligence act suggerisce una strategia ragionevole: proviamo a partire dai pericoli da cui tutti vogliamo tenerci alla larga. L’umano, infatti, riconosce più facilmente ciò che lo ferisce e l’umilia. Questa intuizione si traduce in un approccio basato sulla gestione del rischio, ovvero dei mali dai quali tenersi alla larga.
L’IA Act definisce pertanto quattro livelli di rischio associati all’IA. Questi livelli determinano le regole e gli obblighi differenziati che le aziende devono rispettare. Ad esempio, i sistemi di IA ad alto rischio, come quelli utilizzati nella salute o nei trasporti, sono soggetti a normative e controlli più rigorosi. Progressivamente meno soggetti a restrizioni e regole sono, invece, i sistemi con limitato o minimo livello di rischio. Quelli, poi, che presentano un rischio inaccettabile (riconoscimento biometrico in tempo reale, sistemi di social score, tecniche subliminali) sono semplicemente vietati.
Mettendo al centro la protezione dal male – ovvero ciò che confligge con i bisogni essenziali – l’Artificial Intelligence Act riesce a suggerire la possibilità di trovare un punto di equilibrio condiviso tra la promozione dell’innovazione e la protezione dei cittadini e dei loro diritti. Chiaramente questo è solo l’inizio di un dibattito che non potrà limitarsi all’aula del Parlamento europeo, ma dovrà attraversare le nostre comunità, animando un dibattito pubblico informato e responsabile.
Nella ricerca di un equilibrio tra l’uomo e la macchina, quali strategie etiche potrebbero essere adottate per preservare il senso di responsabilità umana di fronte alle decisioni prese dalle macchine?
La risposta politica, per quanto importante, non potrà essere sufficiente. Essa potrà indicare la strada, ma il cammino passerà in buona parte dalle stanze nelle quali l’IA viene pensata e progettata. La tecnica, infatti, non è moralmente neutra, ma è il terreno sul quale quel bilanciamento di valori di cui facevo cenno trova concretamente realizzazione. Pensiamo a cosa ha comportato, ad esempio, la realizzazione di un’applicazione come Immuni: ha richiesto di soppesare integrità e completezza dei dati con la privacy dei cittadini, la facilità d’uso con la sicurezza, la tutela della salute pubblica con la libertà personale. Ciò su cui dobbiamo investire, da un punto culturale e formativo, è dunque la competenza etica dei tecnici, poiché le tecnologie di cui abbiamo bisogno devono essere disegnate sulla base di una precisa intenzionalità etica. Se le preoccupazioni morali arrivano dopo, quando le tecnologie sono già disponibili, è troppo tardi. Questo approccio implica che le aziende e gli sviluppatori considerino l’etica come un’aggiunta tardiva o come un semplice strumento di pubbliche relazioni. Al contrario, l’etica dovrebbe essere parte integrante del processo di sviluppo, dall’ideazione alla realizzazione, in modo che i principi etici siano incorporati nel codice stesso dell’IA.
Un aspetto chiave di questa Ethics by Design è l’adozione di un nuovo umanesimo digitale. Ce lo ricorda anche La strategia italiana per l’intelligenza artificiale promossa qualche anno fa dal Ministero dello sviluppo economico. L’umano – il suo valore, la sua dignità – deve infatti essere posto al centro di questa rivoluzione tecnologica, e non solo come utente finale, ma come beneficiario primario. Questo significa che l’IA dovrebbe essere sviluppata non solo con l’obiettivo di massimizzare l’efficienza o il profitto, ma anche (e soprattutto) di promuovere la crescita umana. In breve: è la tecnologia deve adeguarsi all’umano, aiutandolo a fiorire, non è l’uomo che deve adeguarsi alle macchine, per inseguire il mito della massima efficienza e della massima produttività.
Le sfide sul terreno sono enormi, rischi e opportunità altrettanto. Per questo è importante affrontarle con tempismo, coraggio e responsabilità.
Considerando il rischio di cedere al mito dell’oggettività nelle decisioni delle macchine, quali approcci etici potrebbero essere promossi per garantire una progettazione e un utilizzo responsabili degli algoritmi?
Uno dei rischi cruciali legati all’IA è la crescente tendenza a delegare decisioni importanti a sistemi algoritmici, affidandoci alla loro presunta oggettività ed efficienza. Questa pratica solleva una serie di questioni etiche e sociali che richiedono attenta riflessione.
Uno degli aspetti critici è l’opacità dei criteri decisionali delle macchine, che possono incorporare e amplificare pregiudizi e discriminazioni presenti nei dati di addestramento, il che pregiudica la correttezza e l’equità delle decisioni prese dalle macchine, soprattutto quando influenzano questioni sociali e legali.
Inoltre, c’è il rischio che, delegando eccessivamente compiti decisionali alle macchine, perdiamo la capacità di sentirci pienamente responsabili di ciò che esse realizzano. Oggi, ad esempio, è di stringente attualità l’uso dell’IA in contesti bellici; a quest’ultima si delega il compito di individuare e colpire obiettivi sulla base di criteri stabiliti in precedenza. Gli elementi critici in questo caso sono evidenti, poiché la distanza rispetto agli effetti prodotti è tale da rendere l’uomo incapace di percepire emotivamente il male generato. L’assenza di empatia rende la guerra, se possibile, ancora più disumana e impedisce alle persone di percepire pienamente le proprie responsabilità. Un’umanità sempre più irresponsabile, inutile dirlo, non è certo ciò che desideriamo per il nostro futuro.
In che modo potrebbe essere concepita un’etica delle macchine che ponga al centro sia l’uomo che la macchina, permettendo un dialogo etico tra le capacità umane e l’evoluzione tecnologica, soprattutto in contesti come quello dell’Unione Europea che ha introdotto regolamenti specifici sull’intelligenza artificiale?
La scelta essenziale riguarda i fini verso cui indirizzare il cammino delle nostre comunità. Dobbiamo decidere se ciò che conta maggiormente sia l’accrescimento costante dei livelli di perfomance, l’efficientamento dei sistemi produttivi e l’aumento dei profitti (di pochi) o se, al contrario, gli obiettivi guida debbano restare i valori fondanti del progetto europeo: libertà, uguaglianza, democrazia, ecc. Io credo che una dei principali banchi di prova di questa sfida riguardi il valore dell’uguaglianza. Mi spiego.
Le disuguaglianze economiche rappresentano una delle principali cause di tensione sociale e di conflitti globali; l’IA, se utilizzata in modo equo e responsabile, potrebbe contribuire a ridurle. Ad esempio, attraverso la sua capacità di ottimizzare processi industriali e di gestione delle risorse, può favorire la produzione e la distribuzione più efficiente di beni e servizi. L’IA, inoltre, potrebbe svolgere un ruolo significativo nell’ottimizzare l’agricoltura e la distribuzione alimentare, favorendo la produzione sostenibile di cibo e garantendo un accesso più equo e diffuso ai mezzi di sostentamento. Discorso analogo per quanto riguarda il contrasto ai cambiamenti climatici, causa di grandi migrazioni e di guerre per la terra e per l’acqua. Tutto ciò, per quanto possibile (e desiderabile), non è affatto scontato e affinché si realizzi è necessario garantire un accesso universale ai benefici derivanti da questa tecnologia, evitando ch’essa aumenti ulteriormente il divario tra ricchi e poveri, anziché diminuirlo. La direzione di marcia imboccata, però, non sembra essere, al momento, quella auspicata. Oggi le big tech hanno un peso economico predominante, mettendo in dubbio la democraticità reale dei processi decisionali. Il potere, più che al demos, sembra appartenere ai padroni delle tecnologie digitali. Dovremmo chiederci, allora, come garantire una reale rappresentanza e partecipazione dei cittadini alle decisioni che influenzano il loro futuro.
Un’ulteriore sfida ai valori democratici dell’Unione Europea riguarda poi il tema della disinformazione e della crescente polarizzazione che contraddistingue il dibattito pubblico. Che ne pensa?
Stanza dubbio le diverse forme di IA possono facilitare il dialogo interculturale, la circolazione delle informazioni e il progresso scientifico. L’analisi e l’interpretazione automatica dei linguaggi, insieme alla capacità di traduzione simultanea, possono favorire la comunicazione tra diverse lingue e culture, abbattendo le barriere linguistiche e facilitando la comprensione reciproca, promuovendo il dialogo e la collaborazione in un mondo sempre più interconnesso. Tuttavia, è fondamentale riconoscere anche i rischi associati a questa facilitazione.
La diffusione rapida e massiccia delle informazioni attraverso le piattaforme digitali ha creato un terreno fertile per la diffusione della disinformazione e delle fake news. I filtri personalizzati e gli algoritmi delle piattaforme, poi, possono creare delle “bolle informative”, mostrando agli utenti contenuti che confermano le loro convinzioni preesistenti, aumentando così la polarizzazione e riducendo la diversità di punti di vista. Queste dinamiche possono portare a una frammentazione della società in gruppi con opinioni sempre più radicalizzate, aumentando la tensione e la divisione tra le persone. Inoltre, l’IA può essere utilizzata per il controllo sociale e il condizionamento psico-emotivo a fini commerciali o politici. La capacità di analizzare grandi quantità di dati personali consente di profilare gli utenti e di influenzare in modo mirato le loro opinioni e comportamenti. Tutto questo solleva interrogativi etici significativi riguardo alla libertà individuale e alla possibilità di manipolazione delle masse per fini di lucro o potere.
Mi sembra che su questi temi sia maturata una generale consapevolezza dei rischi e una convergenza sull’opportunità si ridurli attraverso atti legislativi adeguati. L’auspicio è che quei principi possano trovare quanto prima efficace attuazione.
a cura di Valeria Montani