skip to Main Content

Per un’Intelligenza Artificiale antropocentrica. Intervista a Lucilla Gatt

Intelligenza Artificiale Antropocentrica

Lucilla Gatt è professore ordinario presso l’Università degli Studi Suor Orsola Benincasa, dove dirige il Research Centre of European Private Law (ReCEPL).

Il Parlamento europeo ha recentemente esortato la Commissione ad aggiornare le norme di sicurezza relative all’uso dell’Intelligenza Artificiale e dei Processi decisionali automatizzati. Gli europarlamentari hanno messo l’accento sulla centralità dell’essere umano. Quali sono, al contrario, i rischi di un approccio normativo che non tenga conto dell’utente umano e dell’etica?

Questa recente esortazione del Parlamento europeo alla Commissione si pone in linea di continuità con almeno due risoluzioni del Parlamento medesimo, adottate l’una nel febbraio 2017 e l’altra nel febbraio 2019 dal titolo “European industrial policy on artificial intelligence and robotics”. Già da tempo, infatti, il Parlamento sollecita la Commissione ad emanare regole mandatory in materia di AI.

Allo stato, tuttavia, la Commissione, pur non ignorando affatto il tema dell’AI, non ha accolto completamente le indicazioni del Parlamento. Ha emanato, infatti, due comunicazioni in materia di AI nel 2018 e nel 2019. Quest’ultima si intitola “Building Trust in Human-Centric Artificial Intelligent” e si accompagna a due rilevanti atti non vincolanti  della Commissione o, più esattamente, dell’High-Level Expert Group on AI (AI HLEG) costituito dalla Commissione medesima nel giugno del 2018.

L’ AI HLEG ha elaborato e pubblicato on line due deliverables denominati “Ethics Guidelines for Trustworthy AI” dell’aprile 2019 e “Policy and Ivestment Reccomendatios for Trustworthy AI” del giugno 2019.

Si vede, dunque, come entrambi gli organi europei, e la Commissione in particolare, siano profondamente consapevoli della necessità di realizzare un quadro di regole per lo sviluppo di una AI antropocentrica nel senso di tutelante e potenziante l’essere umano in quanto tale. Questa consapevolezza, però, ha finora condotto verso l’elaborazione di raccomandazioni, comunicazioni, linee giuda che, tra l’altro, si focalizzano sull’esigenza di fare delle scelte etiche e, tralasciano, comunque, in maniera più o meno evidente, di formulare regole a carattere cogente provviste di sanzione.

In altri termini, a livello europeo è emersa chiaramente l’opportunità di regolare l’AI in tutte le sue declinazioni possibili ed è anche reale la consapevolezza di dover compiere delle scelte di carattere etico nello sviluppo dell’ AI, essendo ripetuto in molti documenti il concetto di ethics by design incentrato su human-centred values and fairness. Di fatto, però, ad oggi non si è andati oltre l’emanazione di strumenti di soft law in cui, a ben vedere, il problema dei sistemi decisionali automatizzati, soprattutto in ambito giuridico, resta decisamente negletto.

Sullo stesso piano di soft law ci si muove a livello nazionale. Nel settembre del 2019 il gruppo di lavoro su intelligenza artificiale e blockchain, nominato dal Ministero dello Sviluppo Economico Italiano (MISE), ha pubblicato due documenti: “Proposte per una strategia italiana per l‘intelligenza artificiale” e la bozza di consultazione intitolata “Strategia Nazionale sull’Intelligenza Artificiale”. Ma ancora più di recente il Ministro dell’Innovazione tecnologica e della digitalizzazione ha reso pubblico un documento programmatico, intitolato “Strategia per l’innovazione tecnologica e la digitalizzazione del Paese 2025”, che, per la prima volta, dedica un punto specifico (n. 08) all’applicazione di soluzioni di AI nel settore dei decisori pubblici. Più specificamente nel documento si legge che: «progettare, sviluppare e sperimentare soluzioni di intelligenza artificiale applicata ai procedimenti amministrativi e alla giustizia eticamente e giuridicamente sostenibili significa dare attuazione moderna ai principi costituzionali che vogliono un’amministrazione efficiente e un processo giusto trasparente e breve. Non è qualcosa che si possa scegliere se fare o non fare, è qualcosa che si deve fare». Sorprende non poco il tono asservito e imperioso delle intenzioni espresse nel programma ministeriale che indica anche il come, vale a dire le modalità attuative delle intenzioni espresse. Modalità che consistono nell’ identificare i “procedimenti”, particolarmente adatti per l’utilizzo di sistemi di AI (rapporti tra le amministrazioni, servizi verso le imprese e i cittadini) e nella “definizione”, insieme ai Ministeri competenti, delle soluzioni di intelligenza artificiale idonee a governare i procedimenti nel rispetto dei principi etici e giuridici destinati a confluire nello statuto etico-giuridico dell’intelligenza artificiale, al quale sarà chiamato a lavorare l’AI Ethical Lab-el di cui all’azione n.17 del documento.

E’ interessante rilevare come l’azione n. 17 promuova la creazione di una “Alleanza per l’intelligenza artificiale sostenibile” nella forma di un Comitato al quale saranno invitati a aderire soggetti pubblici e privati e che elaborerà, sulla base dei risultati dei diversi gruppi di esperti nazionali e europei che hanno già affrontato il tema, uno statuto etico-giuridico dell’intelligenza artificiale che, oltre a fissare un set minimo di principi-guida, stabilisca un insieme di regole minime per la qualificazione di soluzioni di intelligenza artificiale destinate al settore pubblico come a quello privato, una sorta di certificazione di sostenibilità etico-giuridica della soluzione che potrebbe poi tradursi in un certificato di superata valutazione di impatto etico sulla società.

Guardando complessivamente a questi atti più o meno definibili di soft law , aventi fonte europea e nazionale, emerge, chiaramente, una prospettiva di regolamentazione c.d. minima dell’AI che, tuttavia, presenta una notevole peculiarità nel suo processo formativo in quanto richiede a monte delle scelte di tipo etico che siano chiare e trasparenti, vale a dire pubbliche e composte a loro volta in uno statuto accessibile a tutti.

Lasciando da parte tutti i ragionamenti che potrebbero svilupparsi sulla base di questo semplice dato avendo riguardo all’ontologia giuridica, preme qui porre in luce come, al contrario di quanto accade nella prassi, la stesura di un set di regole minime per l’AI imporrà l’emersione di tutto quanto avviene normalmente durante il lungo processo che porta all’elaborazione di un articolato normativo, vale a dire l’effettuazione di scelte di fondo (c.d. rationes legis) su cui si installano le norme cogenti.

Ai Gruppi di Esperti in materia di AI, cioè ad un ristretto numero di persone, verranno devolute scelte cruciali per l’evoluzione dell’essere umano, scelte di cui è legittimo chiedersi se e come potranno essere considerati responsabili al di fuori dei circuiti della rappresentanza politico-istituzionale. La composizione di questi Gruppi il cui lavoro precede e condiziona l’elaborazione delle regole cogenti, sarà dunque di fondamentale importanza per la realizzazione del proclamato obiettivo di una AI sostenibile nel senso di: rispettosa dell’umano, sebbene questo significato di sostenibilità riferito all’intelligenza artificiale ci appaia limitato, considerandone le molteplici applicazioni possibili, tali da coinvolgere non solo l’umano ma il vivente in generale.

Indubbiamente sarà difficile garantire una composizione effettivamente rappresentativa delle molteplici istanze etiche nell’ambito di questi Gruppi ma ancor più difficile sarà la traduzione in regole cogenti delle scelte fatte. E’ evidente che la composizione non potrà essere limitata a scienziati ed ingegneri ma dovrà essere estesa a filosofi, teologi e giuristi e che le sanzioni derivanti dalla violazione delle regole non potranno essere solo amministrative o civili ma anche penali.

Ma ciò che appare vieppiù preoccupante è constatare che molte scelte di carattere etico nel settore dell’AI sono già avvenute senza che il processo di effettuazione delle medesime sia stato reso noto ovvero sia stato reso comunque partecipato secondo le modalità che si leggono nei documenti citati cui se ne potrebbero aggiungere altri di livello internazionale come la OECD Recommandation del 22 maggio 2019 – firmata tra l’altro anche dagli USA – e  le Guidelines on AI and Data Protection del  25 gennaio 2019. Lo stesso MID italiano ha, infatti, optato – come sottolineato poc’anzi –  per l’adozione di processi decisionali automatizzati nel settore amministrativo e nel settore giustizia senza che di una tale scelta sia parlato istituzionalmente in sedi dedicate.

Le conseguenze di regolamentazioni dell’AI non riflettute e di cui non siano trasparenti le scelte di base sul piano etico, non sono allo stato prevedibili ma certamente non auspicabili soprattutto ove si tenga conto dell’impatto planetario di queste scelte. Proprio questa potenziale risonanza così ampia dovrebbe fin da ora imporre tavoli di lavoro internazionali e multidisciplinari che abbiano ben chiari i principi codificati nelle Carte internazionali dei diritti ma, soprattutto, tengano nel dovuto conto quanto già avvenuto nella storia dell’umanità a seguito dell’uso no limits delle tecnologie più avanzate.

Come si è visto con il GDPR, l’Unione europea sta cercando di affermarsi internazionalmente come una potenza normativa, capace di imporre standard globali sull’utilizzo delle nuove tecnologie. È un approccio destinato ad avere successo, secondo lei?

L’aspirazione dell’UE ad imporsi come potenza normativa capace di diffondere standard globali sull’utilizzo delle nuove tecnologie è lodevole perché – a prima vista – sembrerebbe animata dal desiderio di tutela la persona fisica come data subject in molte delle situazioni in cui si trova coinvolta durante la vita quotidiana.  E’ indubbio che in materia di tutela dei dati personali l’Europa abbia dato, per così dire, il buon esempio, elaborando una normativa ampia, articolata ed a carattere cogente che mira a disciplinare e rendere trasparente il trattamento dei dati personali. Certamente questa normativa riesce ad impattare anche su soggetti cittadini di Paesi non europei là dove intendano operare sul territorio europeo, dovendo in tal caso sottostare alle regole in esso vigenti. Ma, come anche di recente è emerso chiaramente (es.  CGUE, C-507/17 sul diritto all’oblio), la portata applicativa delle regole UE non può travalicare i confini territoriali dell’Unione.

Se, poi, vuole porsi l’accento sul valore, in senso lato, esemplare delle regole in materia di privacy, deve rilevarsi come l’Europa sia, allo stato, molto debole in quanto divisa, percorsa da istanze centrifughe di notevole portata e incapace di chiudere nuove alleanze con i paesi emergenti sul mercato internazionale delle tecnologie.

Non ha, dunque, la forza politica né quella economica di imporre standard globali sul piano regolamentare in ambito tecnologico, essendo anzi gravemente esposta a forme di colonialismo digitale che già imperversano in molte parti del mondo. Questa nuova forma di colonizzazione si traduce nel controllo su come la tecnologia funziona che, a sua volta, consente a chi controlla il funzionamento della tecnologia di imporre di fatto le regole dell’ordinamento giuridico cui appartiene ovvero regole sue proprie. Consentendo la proprietà dei software si consente a soggetti di ordinamenti non europei di operare con le proprie regole dentro il territorio europeo. E’ evidente, dunque, che solo accordi di livello planetario presi dalle rappresentanze degli Stati possono pensare di arginare il potere che ormai non è più solo economico ma anche giuridico delle società della Big Tech. Sempre più di frequente esse ricorrono a codici di condotta per dichiarare pubblicamente la scelta di porsi dei limiti che di fatto non hanno o che comunque è nella loro possibilità travalicare.

Davanti al tramonto dell’hard law, troppo legata al confine territoriale dello Stato sovrano, compaiono gli strumenti di soft law che conquistano posizioni nella gerarchia delle fonti. In questo quadro così fluido e complesso il GDPR appare piuttosto uno strumento di politica interna per favorire le aziende che si occupano di compliance e di formazione in materia di modulistica privacy: un modo come un altro per risollevare un’economia in crisi!

Back To Top