Edoardo Giardino è avvocato e professore associato nonché abilitato alle funzioni di professore ordinario di…
Intervista al Prof. Giovanni Luchena. Intelligenza artificiale e regolazione dell’economia
Il Professor Giovanni Luchena è professore ordinario di Diritto dell’economia presso il Dipartimento di Economia e Finanza dell’Università degli Studi di Bari Aldo Moro. Nel corso della Sua carriera accademica, ha ricoperto vari ruoli, tra cui quello di vice-direttore del Dipartimento di Scienze economiche e metodi matematici, di Coordinatore del Corso di laurea in Economia, Finanza e Impresa e di componente del consiglio di amministrazione dell’Ateneo barese. Attualmente, è membro del Nucleo di valutazione dell’Università degli Studi di Bari Aldo Moro e componente del consiglio di amministrazione dell’Agenzia per il diritto allo studi universitari in rappresentanza dell’Università barese.
Il Professor Luchena è inoltre visiting professor presso l’Università “Aleksander Xhuvani” di Elbasan, Albania, ed insegna Diritto dell’economia presso l’Università Nostra Signora del Buon Consiglio a Tirana. Nel campo della ricerca, ha partecipato a numerosi progetti finanziati dal Consiglio Nazionale delle Ricerche (CNR), dall’Università degli Studi di Bari, nonché a progetti PRIN, affrontando tematiche come la tutela ambientale, i diritti umani, le riforme federali, la bioetica, i diritti fondamentali, la governance dell’Unione europea. È membro attivo di diversi comitati scientifici e redazionali di riviste accademiche di rilievo. È autore di 135 pubblicazioni, di cui 10 monografie (anche in collaborazione con altri autori) su tematiche di diritto dell’economia. E’ socio dell’Associazione dei docenti di diritto dell’economia (ADDE), dell’Associazione internazionale di diritto delle assicurazioni (AIDA) e dell’Accademia pugliese delle scienze.
il Prof. Giovanni Luchena
Come la velocità dello sviluppo delle tecnologie di intelligenza artificiale influisce sul processo di regolazione economica e quali sono le principali sfide per il legislatore europeo nel mantenere il passo con queste innovazioni?
Innanzi tutto va detto che lo sviluppo delle tecnologie può realizzarsi in ambienti istituzionali aperti al cambiamento. Ciò significa non impedirne lo sviluppo e, allo stesso tempo, non lasciare fronti normativi lacunosi, se non assenti. In questa prospettiva, tenuto conto che l’IA può essere utilizzata in numerosi settori dell’economia, va da sé che la regolazione debba essere proporzionata e ragionevole e soprattutto che debba esserci: non una regolazione invasiva in termini di divieti o di controlli eccessivi ma lineamenti di regolazione pubblica che garantiscano i diritti fondamentali, i consumatori e, naturalmente, i mercati. In questo senso, non appare inutile ricordare come la regolazione debba altresì prevedere interventi di sostegno economico a favore delle imprese che intendano implementare sistemi di IA anche per rendere competitive le imprese europee dinanzi alle grandi corporation statunitensi e cinesi. Una tale sfida si può affrontare soltanto con una regolazione pubblica dell’economia che dia sostegno alle imprese, come mi pare si stia già facendo attraverso la programmazione europea, la cui attuazione è, fra l’altro, ricompresa nel Programma di ripresa e resilienza. In tale sommario quadro di riferimento, viene in evidenza come l’approccio della scuola francese della regolazione sia meritevole di menzione nelle sue linee teoriche che prevedono l’intervento di una fonte esterna al mercato a fini correttivi delle asimmetrie nello scenario globale dell’economia che richiede come la relazione tra spazio ed efficacia delle norme non possa essere chiusa entro le giurisdizioni domestiche. In questo senso, appare valevole di considerazione l’approccio regolatorio di lungo periodo (da intendersi come non invasivo e comunque non limitativo degli sviluppi della scienza), anch’esso tipico della regolazione transalpina, che consente la programmazione delle attività anche nel settore delle tecnologie di frontiera.
Quali sono gli aspetti più significativi dell’AI Act in termini di impatto economico e come questa normativa potrebbe influenzare la posizione competitiva dell’Unione Europea nel mercato globale della IA?
La sfida per il regolatore europeo è fondamentalmente duplice perché punta a realizzare un equilibrio fra innovazione e sicurezza: sul primo versante l’UE deve provare a rimanere competitiva in un settore all’avanguardia, il che richiede interventi anche dal punto di vista del sostegno economico delle imprese in termini di ricerca e sviluppo; sul secondo, si tratta di una regolazione che preservi i diritti fondamentali, la privacy e la sicurezza, ivi compresa la regolazione per evitare le cosiddette discriminazioni algoritmiche e l’utilizzo, per dir così, improprio dei sistemi di IA. Su questo versante, è basilare che il processo della flessibilizzazione in materia di aiuti di Stato alle imprese consenta l’accesso rapido ai finanziamenti pubblici. Del resto, la disciplina pertinente prevede già delle disposizioni che permettono la concessione di aiuti pubblici in materia di sviluppo e innovazione tecnologica esentate dalla notifica preventiva; fra l’altro esiste una comunicazione specifica che ne dettaglia le modalità applicative, offrendo ampi spazi alla concessione di finanziamenti pubblici. L’accelerazione degli investimenti in materia di intelligenza artificiale, oltre tutto, risponde all’esigenza di una diversa collocazione dell’Unione europea in un settore come quello in esame che necessita di armonizzazione e di intenti comuni come, del resto, prevede il piano coordinato elaborato in sede UE. E’ sufficiente ricordare come l’ultimo scoreboard della Commissione indichi come egemonici gli investimenti nel settore dell’IA.
In che modo l’approccio europeo alla regolazione dell’intelligenza artificiale differisce da quello adottato negli Stati Uniti e in Cina, e quali sono le implicazioni di queste differenze per le imprese e i consumatori europei?
La tradizione statunitense ci indica chiaramente come l’approccio sia quello della self-regulation in campo economico e così è anche per quel che concerne l’IA. Si afferma un nuovo modus operandi consistente nella co-regolazione del fenomeno tecnologico che ha però un limite intrinseco relativamente alla preponderanza del ruolo delle corporation le quali dettano le regole lasciando spazio alla legislazione statuale, prevalentemente di matrice antitrust. Si tratta di un modello di regolazione definibile residuale che si fonda su una sorta di diritto naturale delle imprese ad autodeterminare le proprie regole. Va detto, in ogni caso, che la co-regolazione rappresenta il migliore strumento in questo campo perché consente di stabilire gli aspetti tecnici e giuridici in forma collaborativa. Quanto alla Cina, essa adotta un modello di regolazione a struttura verticale che punta a realizzare un meccanismo di controllo del potere delle compagnie, oltre che, naturalmente, del mercato medesimo: si tratta, in definitiva, di set di regole volte a controllare non soltanto gli effetti delle pratiche derivanti dall’utilizzo dell’intelligenza artificiale ma anche a indirizzare le scelte di investimento. Per tirare le somme, e sintetizzando al massimo, l’autoregolamentazione implica certamente dei vantaggi per i consumatori in termini di maggiore flessibilità e innovazione che, in definitiva, permette alle imprese di sperimentare e innovare più rapidamente con indubbi vantaggi in termini di personalizzazione dei servizi. Per le imprese è ovvio che questo importi una maggiore libertà operativa che può trasformarsi in un processo di costruzione di fiducia attraverso comportamenti etici. Il tutto andrebbe però adeguatamente monitorato attraverso una regolazione attenta agli eventuali fallimenti della self-regulation, evitando che le situazioni giuridiche dei più vulnerabili siano ulteriormente aggravate da una posizione di debolezza di partenza. Quanto alla co-regolazione, occorre evitare il rischio di cattura del regolatore attraverso la posizione delle imprese sempre più significative nel rapporto tra regolatore e regolato. Inoltre, il rischio può essere rappresentato dalla esclusione delle piccole e medie imprese da una formula regolatoria nella quale sono le grandi imprese ad essere le vere protagoniste della negoziazione delle regole con l’autorità pubblica.
Come il concetto di “sovranità digitale europea” influisce sulle politiche di regolazione dell’IA e quali sono le potenziali sfide e opportunità che questo approccio potrebbe comportare per il futuro del mercato digitale in Europa?
In sintesi, la cosiddetta «sovranità digitale» assume un significato che opera, per così dire, per sottrazione: da un canto, vengono in evidenza le “pressioni” interne volte a realizzare una maggiore protezione degli Stati dall’“invadenza tecnologica” che può importare rischi e incertezze sia di carattere giuridico sia per quel che concerne le dinamiche economiche. Un’altra visuale è quella caratterizzata da una concezione della sovranità digitale come ambito di qualificazione di un percorso giuridico di respiro europeo, sottraendo, dunque, agli Stati i tentativi di polarizzazione isolazionista in termini di imposizione di regole che incidano sugli effetti economici delle attività svolte dalle imprese digitali. Vi sono esigenze di sviluppo economico e delle capacità di innovazione che rappresentano i fondamenti della sovranità digitale europea quale formula politica di sostegno al progetto giuridico, proprio del regolamento IA, consistente nell’uniformare la legislazione ai valori, ai principi e ai diritti fondamentali dell’Unione. Non solo, va aggiunto che l’intelligenza artificiale può rappresentare un volano per l’economia che può determinare una serie di vantaggi competitivi inerenti al piano sociale (si pensi al mercato del lavoro e all’accessibilità a tutti i cittadini al fine di evitare le discriminazioni) e a molti settori dell’economia particolarmente “sensibili” come l’ambiente e l’energia. Insomma, l’innovazione tecnologica e, in particolare, l’intelligenza artificiale, costituiscono un asset strategico europeo che può innalzare la competitività dinanzi ai rapidi cambiamenti del mercato. In tal senso, la sovranità digitale europea, in realtà, significa “autonomia” rispetto agli altri competitor mondiali attraverso una regolazione aperta, dinamica e adattiva anche garantendo il rispetto dei valori e degli interessi dell’Unione europea nell’universo digitale.