skip to Main Content

I rischi di un approccio normativo nella ricerca su AI. Intervista al Prof. Avv. Anton Giulio Lana

La redazione di DIMT ha intervistato il Prof. Avv. Anton Giulio Lana su Intelligenza Artificiale e tutela dei Diritti dell’Uomo: i rischi di un approccio normativo nella ricerca su AI.

Il Prof. Avv. Lana dal 2016 è Presidente dell’Unione Forense per la tutela dei diritti umani e Direttore della rivista “I diritti dell’uomo – cronache e battaglie”. Laureato in Giurisprudenza nell’Università “La Sapienza” di Roma e Dottore di ricerca in Diritto ed economia dei sistemi produttivi presso l’Università di Sassari, ha trascorso un periodo di studi negli Stati Uniti d’America presso la Fordham University di New York.

 

 

In che maniera l’introduzione all’interno della sfera giuridica e politica delle attuali tecnologie AI, influenzano la nostra società? Quali sono, sotto questo punto di vista, le potenzialità di questa tecnologia?

È forte la corrente di chi percepisce l’intelligenza artificiale (IA), in termini di automazione produttiva, come mezzo di miglioramento delle condizioni di vita umana. Smart contract, smart cities, smart assistant e il c.d. internet delle cose, sono, secondo questa corrente, un insieme di strumenti tecnologici creati dall’uomo, a supporto dell’uomo.

La tecnologia sta, infatti, modificando la qualità della nostra vita, si pensi all’impiego dell’IA nel settore medico e biomedico ad es. in campo ortopedico, così come il nostro quotidiano. Certamente queste innovazioni tecnologiche, possono essere identificate con il progresso umano. I dubbi sorgono, però, in materia di diritti umani ed in particolare sotto il profilo del diritto alla libertà individuale, di autodeterminazione, alla privacy e ad un equo processo.

Gli smart assistant (Siri, Alexa, Cortana, Google Assistant) che sono definibili come, parafrasando il Garante per la protezione dei dati personali, “un programma che interpreta il linguaggio naturale tramite algoritmi di intelligenza artificiale in grado di dialogare con gli esseri umani, al fine di soddisfare diversi tipi di richieste o compiere determinate azioni” quali chiudere o aprire serrature di abitazioni o automobili intelligenti o attivare elettrodomestici. Il c.d. “Internet delle cose”, un neologismo che si riferisce all’estensione di Internet al mondo degli oggetti e dei luoghi concreti, capaci di parlare tra loro tramite la rete –  si pensi ad un frigorifero che rileva la mancanza di scorte alimentari, capace di inviare autonomamente un ordine di acquisto al supermercato, mentre, nel frattempo, sempre il frigorifero, comunica l’effettuazione dell’acquisto allo smart watch dell’interessato. Tali peculiarità, sebbene siano strumenti di supporto alle nostre dinamiche quotidiane, si fondano sulla capacità dei dispositivi di osservare – o sorvegliare – e catalogare un’enorme quantità di informazioni raccolte da diverse fonti, in un dato lasso temporale, che riguardano le nostre scelte, preferenze e stili di vita, consumi, interessi, caratteristiche biometriche, geolocalizzazione e stati emotivi che possono portare all’individuazione, diretta o indiretta, di dati particolari (etnia, opinioni politiche, convinzioni religiose o filosofiche..) delle persone che si trovano nell’ambiente in cui operano, e che vengono contestualizzate mediante intelligenza artificiale e machine learning.

Allo stesso modo, si pensi alle smart cities giapponesi e cinesi che permettono di risolvere questioni urbane contemporanee in termini di domanda di energia e risorse naturali. Tuttavia, i requisiti tecnici per il funzionamento delle città intelligenti, implicano necessariamente la raccolta e l’analisi dei Big Data, spesso a scapito della libertà dei cittadini, se non propriamente regolamentate. Le telecamere urbane con riconoscimento facciale utilizzate in Cina, pur consentendo alla polizia di identificare più facilmente un guidatore ricercato per frode fiscale (come da caso noto) o che passa il semaforo con il rosso, inevitabilmente, raccolgono i dati di tutti i passanti.

Dal punto di vista dei diritti umani, guardare ai Paesi considerati all’avanguardia tecnologica come fonte di ispirazione per il nostro progresso, è una tesi che non può condividersi in toto.

Nelle smart cities, l’applicazione di nuovi modelli di sorveglianza sociale, configurano svariate violazioni del diritto di autodeterminazione e della libertà individuale. Questi modelli di controllo sociale, tra l’altro, sono una base per i sistemi di giustizia predittiva, utilizzata per prendere decisioni di identificazione di potenziali trasgressori, anche passando attraverso la mera previsione statistica. Tuttavia, non può non rilevarsi che le città intelligenti possono agevolare forme di controllo sulle libertà civili dei cittadini da parte di alcuni governi, come riportato dal rapporto pubblicato sul sito web TechCrunch (2019), riguardante il monitoraggio dei residenti intorno a piccole comunità abitative cinesi, tramite telecamere urbane progettate per raccogliere dati di riconoscimento facciale. Un analisi sul sistema cinese, ha mostrato che i dati raccolti sono sufficienti ad individuare dove sono andate le persone, quando e per quanto tempo, le etnie e le etichette – come i cinesi Han, il principale gruppo etnico della Cina – e anche i musulmani Uiguri, una minoranza etnica sotto persecuzione di Pechino – nonché, il sistema, estraendo anche i dati dalla polizia, utilizzava tali informazioni per rilevare persone di interesse o sospetti criminali, suggerendo le loro identità; così come, particolari indicatori della telecamera, permettevano di riconoscere un “tossicodipendente” o “ex detenuto”, consentendo a chiunque avesse accesso ai dati, inclusa la polizia cinese, di costruire un’immagine della vita quotidiana di una persona.

In materia di IA, alcuni Stati sono in grado di esercitare un controllo sulle libertà civili sorvegliando i propri cittadini ma potenzialmente, anche alcune multinazionali per i propri interessi. Una regolamentazione della materia basata su principi etici e filosofi a tutela dei diritti fondamentali, risulta quindi essenziale. Non solo, si consideri che la normativa dovrà essere applicata da un organo statale, ma chi può essere arbitro se sia lo Stato che i provider privati sono coinvolti? Un ruolo più determinante dovrebbe essere assunto dalle organizzazioni internazionali e dalla società civile, che sempre più dovrà sviluppare una “cultura di awareness” in materia.

 

 

Quali sono i rischi di un approccio normativo nella ricerca su AI che non tanga conto della tutela dei diritti umani?

Considerati gli svariati campi sensibili di applicazione dell’intelligenza artificiale quali il settore medico, biomedico, militare, ecc. lo sviluppo della normativa in materia dovrebbe essere fortemente caratterizzato da un approccio etico e filosofico.  Nel caso di uno sviluppo incondizionato della IA, le implicazioni dal punto di vista di violazione dei diritti umani risulterebbero ancora più forti. Esistono già, infatti, diversi esempi di come l’impiego o la programmazione impropria degli algoritmi, abbiano comportato violazioni evidenti dei diritti fondamentali. Si pensi alla discriminazione di genere o basata su caratteristiche etniche. Ci si riferisce, in particolare, a quelle pubblicità mirate – Google Ads – che hanno mostrato di privilegiare gli utenti di genere maschile nella sponsorizzazione di posizioni lavorative meglio retribuite. Negli USA, come noto, gli algoritmi utilizzati per calcolare il rischio di recidiva penale, attribuiscono valori maggiori a soggetti afroamericani, anche a causa di una programmazione basata su statistiche contenenti dati raccolti nel corso del tempo, viziate dalla percezione socio-culturale americana, propria delle diverse epoche storiche del paese.  Inoltre, bombardare milioni di utenti del web con messaggi fuorvianti e discriminatori, non fa altro che acuire e consolidare disuguaglianze e stereotipi discriminatori. Visioni molto difficili da sradicare anche nel lungo periodo, proprio come ci insegna la stessa storia americana in ambito di discriminazione etnico-culturale.

Ad oggi, il grado di precisione di alcuni algoritmi è talmente accurato da poter manipolare le decisioni dell’utente, senza che questi si renda conto di niente. Il famoso caso di “Cambridge Analytica”, ha mostrato che la manipolazione delle scelte individuali, può essere finalizzata ad influenzare le scelte politiche dei votanti, minando le fondamenta del principio di autodeterminazione individuale e della stessa democrazia. Alla luce di tali fatti, appare necessaria una regolamentazione normativa che prevenga le potenziali violazioni dei diritti umani, impedendole prima che le conseguenze divengano irreversibili. Pertanto, il ruolo del giurista non può limitarsi a “rincorrere” lo sviluppo tecnologico, ma deve guidarlo.

 

 

In che modo l’analisi delle questioni giuridiche della AI riguardano, in ultima istanza, una nuova modalità di tutela dei Diritti dell’Uomo?

L’intelligenza artificiale pone nuove sfide e rivela delle problematiche che i giuristi sono chiamati ad affrontare. Lo sviluppo tecnologico cambia la nostra società e il diritto deve evolversi in parallelo, senza restare indietro. Un chiaro esempio è costituito dall’evoluzione del diritto alla privacy e della protezione dei dati, oggi divenuti argomenti centrali di dibattito. I più recenti interventi normativi hanno tentato di regolamentare la materia spostando la tutela della protezione dei dati personali, dal piano nazionale, a quello europeo ed internazionale, riaffermando, così, valori consolidati nella società occidentale, quali la riservatezza, e messi in discussione da una realtà differente. Forse nulla come le nuove tecnologie rivela infatti il dinamismo del diritto, i cui principi vengono spinti ad un continuo rinnovamento. Certamente l’AI pone interrogativi sfidanti, così come risulta arduo un bilanciamento dei rischi – benefici. In tale panorama, i diritti umani svolgono un ruolo decisivo nel tracciare una linea di demarcazione tra sviluppo tecnologico ed abuso, fornendo un parametro universale, alle sfide che questa nuova realtà solleva a livello nazionale ed internazionale.

 

Back To Top