skip to Main Content

L’Appunto di Gustavo Ghidini. L’Europa e la regolamentazione dell’Intelligenza Artificiale

L’Appunto

una rubrica a cura di

Gustavo Ghidini

 

L’Appunto è una rubrica mensile, una finestra di approfondimento per il giurista moderno che affronta le sfide e gli inevitabili interessi in gioco posti in essere da una realtà socio-economica e culturale sempre più complessa, espressiva e poliedrica.

La rubrica è curata dall’Avv. Prof. Gustavo Ghidini, Professore Emerito nell’Università degli Studi di Milano, Senior Professor di Diritto industriale e delle Comunicazioni nell’Università Luiss Guido Carli. Direttore dell’Osservatorio di Proprietà Intellettuale, Concorrenza e Comunicazioni dell’Università LUISS Guido Carli. Fondatore e Condirettore della Rivista “Concorrenza e Mercato” (Giuffré); Condirettore della Rivista “Annali italiani del diritto d’autore, della cultura e dello spettacolo (AIDA)” Giuffrè. Membro dell’Editorial Board del “Queen Mary Journal of Intellectual Property” del Queen Mary Intellectual Property Research Institute, University of London e membro del Comitato Scientifico della “Rivista italiana di antitrust“, membro del comitato scientifico di DIMT “Diritto Mercato e Tecnologia”.

 

 

Avv. Prof. Gustavo Ghidini

 

Questo secondo appuntamento, della rubrica curata dal Prof. Ghidini, espone un’analisi di profondo respiro in merito alla valutazione delle proposte normative presentate dall’Unione europea sui possibili usi dell’Intelligenza Artificiale e sui potenziali rischi previsti dalla sua regolamentazione.
L’invito al giurista rimane sempre quello di non iniziare a sviluppare l’analisi giuridica partendo dalle norme, bensì dalle osservazioni degli interessi in gioco e dai successivi loro conflitti. Per valutare poi, secondo le sue dichiarate premesse valoriali, l’adeguatezza delle norme rispetto ai valori assunti dall’interprete.
Nasce qui l’esigenza di una valutazione normativa, avvalorata dell’esegesi, che non sconfini nell’attribuzione al testo normativo di significati che il testo stesso non consente ragionevolmente. Il buon giurista positivo può e deve svolgere un’interpretazione evolutiva in coerenza con i principi cardine, costituzionali in primis, dell’ordinamento, senza esprimere un significato in essere che non sussista nella natura della norma.
Qui il giurista ha l’occasione, talvolta il dovere, di avanzare una sua personale proposta riformatrice.
La Redazione di DIMT

 

 

 

L’Europa e la regolamentazione dell’Intelligenza Artificiale

 

Più pronta a regolare che investire nelle nuove tecnologie, l’Unione europea ha prodotto una nuova importante proposta in materia di intelligenza artificiale (AI). Il 21 aprile di quest’anno la Commissione ha emanato un progetto di Regolamento per tracciare il confine tra lecito e illecito negli “usi” della AI. Quando il Regolamento sarà varato, dopo il vaglio del Parlamento Europeo (fra non meno di due anni, scommettiamo?) diventerà norma immediatamente efficace in tutti gli Stati membri. Non è quindi troppo presto perché l’Italia se ne occupi: al fine di portare, nel dibattito già iniziato in alcuni ambienti economici e giuridici, una posizione seria e coerente.

Nella proposta della Commissione, il Regolamento distingue tre livelli di rischio determinato da possibili applicazioni(“usi”) della AI, i quali richiedono un intervento giuridico. Fuor di battuta, vien fatto di evocare la partizione della Divina Commedia, anche per la implicita ma chiarissima ispirazione etica che quella tripartizione guida.

 

Il Rischio Inaccettabile

Il primo livello è quello del rischio “assoluto”, che rende la applicazione illecita e quindi vietata.  In questo ‘inferno’ stanno usi che violano sia la dignità sia la sicurezza (e salute fisica e psichica) delle persone.

E così vengono sostanzialmente proibiti, ad esempio, sistemi bastati su AI che impieghino tecniche subliminali capaci di falsare inconsciamente il comportamento di una persona, provocando danni fisici o psicologici a quella o altra persona. E sono altresì, ed ovviamente, vietate, applicazioni come killer robot, nuove sostanze venefiche, impianti sottocutanei per influire sulla psiche umana, e simili ‘meraviglie’.

Non sembrino esagerate queste preoccupazioni che animano il proposto Regolamento: tecnici e scienziati sono tipicamente ‘fissati’, come innamorati, nella ricerca del successo, e non hanno spesso la mente pre-occupata da problemi etici. Uno dei padri della bomba atomica, il fisico Hans Bethe, testimoniò nel 1954, negli Oppenheimer Hearings, che i problemi morali sorsero in loro dopo la strage di Hiroshima e Nagasaki. E il Prof. Fritz Haber, Premio Nobel per la chimica nel 1918, non si pose problemi etici, né mai rinnegò la sua celebre creatura: quel cosiddetto “gas mostarda” (a base di cloro) che sterminò migliaia di francesi sulle trincee di Ypres–donde il più noto e sinistro nome ‘iprite’.

Ancora, verranno banditi sistemi, adottati da autorità pubbliche (limitazione ingiustificabile: v. fra breve) per valutare e classificare, con un ‘punteggio sociale’ (social scoring), la affidabilità delle persone sulla base del loro comportamento sociale in contesti sociali estranei a quelli in cui i dati sono stati originariamente generati o raccolti. E ciò qualora detti sistemi portino a trattamenti discriminatori di determinate persone o interi gruppi di persone non giustificati o sproporzionati rispetto al comportamento sociale “controllato”.

Saranno altresì banditi sistemi di identificazione biometrica a distanza “in tempo reale” in spazi accessibili al pubblico da parte delle forze dell’ordine. Questo, tuttavia, a meno che e nella misura in cui (come si diceva una volta) tale uso sia strettamente necessario per prevenire una minaccia imminente alla vita o alla sicurezza fisica delle persone fisiche, o un attacco terroristico, ecc.

 

Il Rischio Accettabile: obblighi di precauzione, controllo, informazione

In più alto loco, a riveder le stelle, stanno applicazioni foriere di un rischio alto ma “accettabile”, descritte nell’All. III della proposta. Accettabile nel senso che potranno essere messe sul mercato solo a seguito di una preventiva e rigorosa valutazione di conformità a stringenti requisiti, che coprono l’intero ciclo di vita dell’applicazione algoritmica, dalla progettazione alla realizzazione.  In particolare, e principalmente, si dovrà creare e mantenere attivo un sistema di risk management; si dovrà assicurare la supervisione da parte di persone fisiche (“human oversight”) del funzionamento del sistema; si dovrà documentare il processo di sviluppo di un determinato sistema di IA ed il funzionamento dello stesso; si dovranno infine osservare obblighi di trasparenza verso gli utenti sul funzionamento del sistema.

In questa categoria rientrano anche ipotesi di rischio pur sempre sensibile ma ancora minore —un ‘cerchio’ più vicino al paradiso. Le corrispondenti applicazioni saranno lecite purché solo il rischio sia dichiarato, e quindi (implicitamente) ‘gestibile’ con accorti comportamenti umani. A questa categoria appartengono, ad esempio, applicazioni di AI nella chirurgia assistita da robot; sistemi di valutazione dell’affidabilità delle informazioni fornite da persone fisiche per prevenire, investigare o prevenire reati; sistemi per il trattamento e l’esame delle domande di asilo e visto; sistemi per assistere i giudici. Ancora, nel caso di uso di chatbot o di assistenti vocali, l’utente dovrà essere informato che non sta interagendo con un essere umano, così come dovrà sapere se stia guardando un video generato con deepfake.

 

Il Rischio minimo  

Pienamente liberi saranno infine   altri sistemi di AI sostanzialmente ‘innocui’ rispetto alla   sicurezza alle libertà dei cittadini. Essi potranno quindi essere sviluppati e utilizzati senza specifici, particolari obblighi giuridici (la Commissione tuttavia raccomanda l’adesione volontaria a codici di condotta per migliorare la trasparenza e l’informazione). Si tratta, ad esempio, di sistemi di manutenzione predittiva, i filtri anti-spam e contro le telefonate indesiderate, i videogiochi sviluppati sfruttando sistemi di IA. Secondo la Commissione, la stragrande maggioranza dei sistemi di AI attualmente utilizzati all’interno della UE rientrerebbe in quest’ultima fascia.

 

Nel trasparente disegno sistemico della Commissione, il proposto Regolamento sulla AI si affiancherà, fra gli altri atti normativi europei, al noto GDPR in materia di privacy. Con il quale anzi  si intreccerà, rafforzandone le linee guida—ad esempio, per portare a vietare (speriamo)   deprecabili applicazioni ‘giudiziarie’ della AI, le quali, che anziché limitarsi ad offrire un ampio quadro informativo di precedenti e opinioni,  si spingano a  ‘predire’  la soluzione  giurisdizionale– l’attribuzione di ragioni e torti – così dando vita ad un fiorente commercio di ‘pacchetti’ algoritmici per  incoraggiare, deresponsabilizzando, atteggiamenti  decisori  ‘passivi’ ( e pigri), ancorati al passato—‘dato’  è participio passato. E così pure, ovviamente, disincentivando interpretazioni evolutive. (Questo pericolo, e questo discrimen, è stato efficacemente messo in luce da un recente scritto del Dott. Roberto Bichi, Presidente del Tribunale di Milano).

 

Come si è già compreso, riteniamo questa proposta una iniziativa complessivamente salutare. Che tuttavia presenta aspetti opinabili e lacune ingiustificate. Ci sono buoni formaggi, pur pieni di buchi.

Il dibattito essendo appena all’inizio, conviene concentrarci sulle lacune a nostro avviso più gravi: anzitutto, la limitazione (art. 5) del divieto delle applicazioni che implichino rischio assoluto alle amministrazioni e ai luoghi pubblici. Manifesto frutto di compromesso – molto al ribasso – con intuibili interessi costituiti. Si ammetteranno sistemi di sorveglianza dei lavoratori in azienda con applicazioni che contino i minuti ammessi per andare in bagno?!

 

La disposizione (art. 43) per cui solo i sistemi di AI destinati ad essere utilizzati per l’identificazione biometrica a distanza delle persone fisiche sia “in tempo reale” sia “a posteriori” saranno soggetti alla valutazione di conformità ai requisiti di cui al titolo III, capo 2, del presente regolamento da parte di enti terzi. Invece, gli altri sistemi di AI classificati ad alto rischio (compresi quelli usati per deprecata la giustizia predittiva), saranno soggetti all’autovalutazione da parte dell’attuatore, compresi il controllo dell’immigrazione e l’assunzione di personale. Ma si giustifica lasciare una valutazione così importante ai soggetti privati che hanno un chiaro interesse economico proprio nell’utilizzazione di questi sistemi?

Infine, la proposta contiene un solo breve riferimento, alla tutela di proprietà intellettuale delle applicazioni dei AI. Riferimento, anzi, generico e abbastanza confuso, che dovrebbe essere sostituito da una precisa dichiarazione di inammissibilità di tutelare con brevetto o copyright applicazioni pur nuove e originali che comportino rischi assoluti. Si dovrebbe dunque estendere a tutti i diritti d proprietà intellettuale – incluso quello di segreto industriale – il requisito ostativo della ‘liceità’, (come avviene   per i brevetti di invenzione industriale).

Questi i ‘buchi’ principali.

Che tuttavia — tranne che nell’Emmenthal—ben si possono tappare.

Gustavo Ghidini

Back To Top