skip to Main Content

Intervista al Prof. Alessandro Mantelero. “Beyond Data. Human Rights, Ethical and Social Impact Assessment in AI”

In merito alla recente pubblicazione Beyond Data. Human Rights, Ethical and Social Impact Assessment in AI”, abbiamo intervistato il Prof. Alessandro Mantelero Professore associato di Diritto Privato nel Politecnico di Torino, esperto scientifico dell’Ad hoc Committee on Artificial Intelligence del Consiglio d’Europa. Ha supportato, quale esperto di regolamentazione dei dati, diverse organizzazioni nazionali e internazionali, tra cui le Nazioni Unite (UN-ILO, UN-OHCHR, UN-DP), l’Agenzia dell’UE per i diritti fondamentali, la Commissione europea, la Camera di commercio americana in Italia, il Ministero della Giustizia e l’Autorità per le Garanzie nelle Comunicazioni (AGCOM)

 

Il Prof. Alessandro Mantelero

 

Qual è il quadro metodologico proposto nella Sua recente pubblicazione “Beyond Data. Human Rights, Ethical and Social Impact Assessment in AI” in merito allo studio di impatto delle Intelligenze Artificiali su individui e società dal punto di vista legale?

Il libro vuole essere un contributo concreto alla discussione in corso a livello europeo circa il nuovo quadro regolatorio dell’IA. Nello specifico, sia nella proposta in discussione a Bruxelles sia nei lavori preparatori del Consiglio d’Europa per una convenzione sull’IA emerge la centralità dell’approccio focalizzato sul rischio.

Si è assistito quindi ad un duplice rilevante cambio di paradigma nel discorso in atto da alcuni anni sull’impatto dell’IA nella società. Da un lato l’attenzione prevalentemente incentrata sulla dimensione etica, si pensi al lavoro del High-level Expert Group on Artificial Intelligence, ha lasciato spazio ad una visione di regolamentazione mediante norme giuridiche. Dall’altro, nel seguire un modello di regolamentazione ex ante basato sul rischio, un ruolo centrale è stato riconosciuto al potenziale impatto sui diritti umani.

Due sono, dunque, i “poli di attrazione” nella disamina di tale impatto: le conseguenze sui diritti e le libertà, e gli impatti etico-sociali. Purtroppo, però, a questa presa di coscienza dei potenziali rischi legati all’uso dell’IA non si è accompagnata una proposta concreta circa le modalità con cui implementare questo approccio incentrato sul rischio.

La mancanza di modelli di valutazione di impatto è un problema cruciale, perché gli operatori pubblici e privati chiamati a rispettare le norme che verranno in essere necessitano di sapere come la valutazione del rischio deve essere condotta e, sia per i diritti umani sia per l’impatto sui valori etici e sociali mancano, in letteratura e nella prassi, modelli adeguati pensati per il contesto costituito dai prodotti e servizi di IA.

Il libro, muovendo dal superamento di una tutela incentrata solo sui dati personali ormai incapace di affrontare pienamente tutte le sfide dell’IA, propone quindi un modello operativo per la valutazione del rischio relativo all’impatto sui diritti umani in ambito IA, nel solco di una più ampia letteratura su rischio e diritti umani. Indica altresì alcune strategie su come integrare nel design dell’IA il rispetto dei valori etici e sociali propri del contesto in cui tali prodotti andranno ad operare.

 

 

Quali i rischi etici e sociali che potrebbero nascere dalla convivenza dell’uomo con le IA? I diritti umani sono anch’essi a rischio?

Poiché la IA tende ad essere applicata in maniera pervasiva alle attività umane ed all’interazione uomo-macchina, inevitabilmente una varietà di diritti ed istanze etico-sociali vengono in gioco. Così, ad esempio, un’IA usata per i controlli di frontiera può decidere chi è idoneo all’ingresso in uno stato, con impatto sulla libertà di movimento. In un contesto smart cities, invece, la scelta di gestire attraverso all’IA molti aspetti della vita associata (come nel progetto canadese Sidewalk discusso nel libro) solleva un interrogativo più ampio, dovendoci domandare se sia questo il modello di società che vogliamo, se delegare alle macchine ed alle piattaforme funzioni proprie dell’amministrazione pubblica sia socialmente opportuno ed accettabile. Altri dilemmi etici e sociali poi sono presenti quando l’IA viene incorporata nei sistemi sanitari, specie laddove impiegata per definire le priorità di intervento o causa di divario sociale fra chi ha accesso a tecnologie di personalizzazione diagnostica basate sull’IA e chi ne è escluso.

Proprio questa varietà e variabilità dei rischi suggerisce l’opportunità di adottare un modello che combini la tutela dei diritti umani all’integrazione dei valori etico-sociali nei sistemi di IA. Ovviamente, la seconda è la sfida più difficile in termini operativi, stante la natura contestuale dei valori e la conseguente necessità di una valutazione che si avvalga sia di strumenti partecipativi sia di esperti. Questi ultimi, come nel caso dei comitati etici, dovranno avere la sensibilità e la capacità di individuare le ripercussioni valoriali nello specifico contesto applicativo e nella comunità di riferimento.

 

 

Tenendo conto del dibattito sulla regolamentazione delle AI, il diritto internazionale ed europeo quali passi sta muovendo in questo scenario in continua evoluzione? Rimanendo in tema, quali soluzioni informative vengono proposte nel Suo volume a supporto dell’attività decisionale di responsabili politici e autorità di regolamentazione?

Da alcuni anni si è aperto un dibattito, specie nel contesto europeo sulla regolamentazione dell’IA. Personalmente ho partecipato ai lavori del Consiglio d’Europa per l’adozione di una convenzione sull’IA e devo dire che, a Strasburgo come anche a Bruxelles, il processo è risultato più lungo e travagliato di quanto nelle ottimistiche attese politiche. Penso tuttavia che scelte meditate su un tema che tocca equilibri così delicati nell’interazione uomo-macchina siano necessarie e doverose. L’IA è qui per rimanere, quindi servono normative in grado di resistere nel tempo.

In questo senso, a Bruxelles come a Strasburgo, è prevalso un approccio incentrato sul rischio, coerente con i problemi di cui abbiamo brevemente detto e con il modello di regolazione della tecnologia comunemente adottato, che ritroviamo ad esempio nella disciplina dei dati personali.

Per contro, non basta semplicemente affermare che i diritti fondamentali vanno salvaguardati e che i rischi che singoli sistemi di IA sollevano a riguardo vanno affrontati. Servono metodologie concrete che elaborino in modello teorico e lo rendano operativo. Questo perché le imprese, come i soggetti pubblici, che usano l’IA necessitano di una guida in tal senso onde poter adempiere ai futuri obblighi normativi incentrati sulla prevenzione del rischio.

Purtroppo, invece, i testi normativi in discussione non sviluppano questo punto, lasciando gli operatori in un’incertezza circa il metodo da adottare nella valutazione del rischio, che il libro vuole colmare, offrendo uno strumento tanto utile agli operatori nel momento in cui vanno a modellare le applicazioni IA quanto alle autorità che nel supervisionare il corretto sviluppo dei sistemi di IA dovranno valutarne le potenziali criticità.

La proposta contenuta nella monografia guarda poi oltre alla prospettiva adottata dai legislatori, dove le ricadute etico-sociali dell’IA non hanno trovato collocazione. Esigenze la cui centralità non va però sminuita e che non possono essere né demandate a chi sviluppa i prodotti AI – con il rischio di una confusione fra valori etici e valori d’impresa e senza un’effettiva partecipazione dei soggetti interessati – né, nei casi di impatto sui valori di una società, possono essere affrontate al di fuori di un processo partecipativo e di una valutazione supportata da esperti in grado di decodificare le istanze etico-sociali insite in un dato contesto.

Per questo nel libro si sottolinea la centralità che i comitati di esperti, anche alla luce del contributo già offerto dai comitati etici in diversi ambiti, possono avere e vengono proposte alcune soluzioni per il loro funzionamento, nonché si suggerisce l’adozione di ethics officers e viene discussa l’esigenza di un effettivo coinvolgimento dei soggetti interessati.

Una metodologia di valutazione dell’impatto sui diritti umani ed indicazioni per operatori e regolatori su come valorizzare la dimensione etica e sociale credo possano essere di aiuto per uno sviluppo dell’IA che ponga davvero l’essere umano al centro, rispettandone pienamente la dignità ed il portato valoriale.

È questa una risposta diversa da quanti vorrebbero, invece, ridurre il problema della valutazione degli impatti dell’IA ad una mera questione di standard da demandare ad organi tecnici, tradizionalmente non adusi a confrontarsi con temi relativi ai diritti umani e carenti della sensibilità necessaria per affrontare interrogativi etici o sociali. Questo, soprattutto, non tenendo in conto di come la varietà delle applicazioni dell’IA e delle ricadute correlate non siano suscettibili di un processo di standardizzazione che, per sua natura, richiede invece una certa ripetitività e stabilità degli scenari. Ripetitività e stabilità non rinvenibili nella varietà di soluzioni implementabili e nei variegati contesti valoriali specifici in cui la IA si vuole impiegare.

Non da ultimo, questa attenzione all’impatto dell’IA sulla società, suggerisce ai responsabili politici ed alle autorità di regolamentazione di considerare l’IA come un’opzione e non come una via obbligata per ogni aspetto della nostra esistenza, esortando a valutare con attenzione se, in che contesti ed a quali condizioni l’essere umano debba essere affiancato o sostituito dalla macchina.

 

 

Intervista a cura di Valeria Montani

 

 

Approfondimenti:

Back To Top