skip to Main Content

Rischio e vulnerabilità nel modello europeo di intelligenza artificiale

di

Mariavittoria Catanzariti

 

Abstract

The contribution explores how the European model on artificial intelligencev addresses the relationship between risk analysis and management of automated systems and its impact on the vulnerability factors that the use of certain deceptive techniques determines or increases. The article draws some reflections on the European model that illustrates how risk assessment and management are logically related to data governance choices. Some data governance choices can lead to mitigation of the risk by combining market needs with an anthropocentric approach. As a result of general considerations on the European approach to artificial intelligence systems, the contribution offers the analysis of a case related to the interoperability of European information systems for purposes of security, migration and European border control, focusing on the impact that these systems have on the real life of third country nationals.

 

Introduzione

La proposta di regolamento UE sulla intelligenza artificiale (AI Act) è stata da molti accolta come il risultato dell’approccio tipicamente europeo alla regolazione degli algoritmi. Cosa vi sia di tipicamente europeo in tale approccio si evince dalle formulazioni dei testi ufficiali e meno dalle pratiche, essendo esso in gran parte legato a ciò che viene definito il cuore dell’identità
e dei valori antropocentrici europei. Tradotto in termini operativi, si tratterebbe di una gestione del rischio a geometria variabile combinata con scelte e obblighi di governance dei dati
volti primariamente a evitare o limitare effetti decettivi dei sistemi di intelligenza artificiale sugli individui, garantendo al contempo l’affidabilità dei sistemi. Viene immediatamente da chiedersi in che termini possa parlarsi di effetti decettivi e in relazione a cosa un sistema possa ritenersi affidabile. Nel primo caso, occorre ricordare che il modello culturale europeo si è radicato sullo sviluppo della personalità come progetto di edificazione della coscienza in fieri, mentre nel secondo si fa riferimento alla gestione graduale del rischio in relazione a diverse situazioni di vulnerabilità, in altre parole mitigazione del rischio in relazione alla rilevanza del pericolo di effetti negativi sul target.
Il compromesso europeo avallerebbe, dunque, l’idea di un’umanità in generale disposta ad accettare il rischio di manipolazione ad opera delle macchine intelligenti purché tale rischio sia
minimizzato?

RISCHI DIFFERENZIATI PER MERCATI
DIFFERENZIATI O PER DIVERSE UMANITÀ?

A ben guardare, il processo regolatorio dell’intelligenza artificiale in Europa ha una storia singolare, dapprima filtrato attraverso linee guida etiche, macchinosamente conformate ai diritti fondamentali, poi confluito in una proposta di regolamento che sarà direttamente applicabile negli Stati Membri una volta adottato.
Il primo dato che emerge è dunque di sistema: il consenso etico sui valori è frutto di una policy preparatoria rispetto alla regolazione. Entrambi i sistemi di regole, quello etico e quello giuridico, sono stati parametrati sulla base di soglie di accettabilità del rischio dei sistemi di intelligenza artificiale, il che rappresenta di per sé un inedito del modello europeo, tipicamente costruito come modello giuridico tout-court nel quale i valori dell’Unione rappresentano il limite di tenuta del sistema al quale istituzioni e individui riferiscono la propria identità “europea”.
Si tratta in fin dei conti della nota questione del come coniugare valori, diritti e mercato globale, o di qualcosa di diverso? L’idea più probabile è che ci si sia affidati a due ordini di regole, quelle etiche e quelle giuridiche, per differenziare situazioni in relazione al rischio e all’incidenza di esso su fattori di vulnerabilità sociale, non deprimendo irragionevolmente il mercato con un approccio orizzontale regolatorio non diversificato sulla base di differenti situazioni di rischio.
La struttura del regolamento in oggetto, letta nel suo insieme, fornisce indicazioni sulle finalità di un progetto indubbiamente ambizioso.

 

 

 

Clicca qui per continuare la lettura dell’articolo in open access

Back To Top