skip to Main Content

Intervista al Prof. Massimo Rubino De Ritis. Il possibile abuso di un’intelligenza artificiale dominante: il ruolo delle Authority

Il Prof. Avv. Massimo Rubino De Ritis è Professore Ordinario di Diritto Commerciale presso l’Università degli Studi della Campania LUIGI VANVITELLI, precedentemente nota come Seconda Università degli Studi di Napoli. Laureatosi con il massimo dei voti e la lode in Giurisprudenza nel 1984 presso l’Università “Federico II” di Napoli, ha successivamente ottenuto la specializzazione in diritto commerciale e il titolo di Dottore di ricerca. Ha ricoperto il ruolo di Ricercatore universitario prima di diventare professore associato, e in seguito professore ordinario. Dal 2011 è Professore Straordinario presso la Facoltà di Giurisprudenza dell’Università degli Studi della Campania LUIGI VANVITELLI. Ha insegnato in diverse università italiane e ha avuto incarichi di docenza in vari ambiti del diritto commerciale, bancario, industriale e fallimentare. Inoltre, è avvocato cassazionista e consulente di imprenditori in varie questioni giuridiche. È autore di numerose pubblicazioni, tra cui monografie, articoli e note a sentenza (per le pubblicazioni clicca qui).

 

Il Prof. Massimo Rubino De Ritis

 

Quali sono le principali sfide etiche e pratiche sollevate dall’abuso di posizione dominante di un’intelligenza artificiale, e come possono le autorità giuridiche intervenire efficacemente per affrontarle?

L’abuso di posizione dominante da parte dell’intelligenza artificiale (IA) presenta sfide etiche e pratiche complesse, includendovi questioni di equità, trasparenza, accessibilità e sicurezza anche sotto il profilo della possibile violazione della privacy (si pensi all’immissione e utilizzo di dati riservati, come fotografie o documenti personali). Per affrontare tali questioni, oltre all’autoregolamentazione con standard etici  e linee guida per evitare possibili contenziosi, occorre una regolamentazione ad hoc. Le autorità previste da singoli ordinamenti hanno un ruolo fondamentale nel disciplinare lo sviluppo e l’uso dell’IA, possibilmente attraverso regole di trasparenza dei criteri decisionali.

Per stimolare un’innovazione responsabile, si possono immaginare  incentivi anche finanziari per premiare le imprese che aderiscono a principi etici nell’uso dell’IA. Allo stesso tempo, è importante intervenire contro pratiche scorrette a danno dei consumatori oltre che per pratiche anticoncorrenziali atte a soffocare la concorrenza.

Un altro aspetto fondamentale è il collegamento tra legislazione, magistratura, università e avvocatura, di cui ho altrove trattato, anche in un recente contributo. Ho introdotto, infatti, la nozione di diritto totale, in cui l’innovazione tecnologica riveste un ruolo importante.  Con l’idea del “diritto totale” propongo un modello innovativo nel campo giuridico, puntando a un’integrazione funzionale tra gli attori principali del sistema: magistratura, università e avvocatura. Al cuore di questo approccio vi è la convinzione che una sinergia tra queste entità possa portare a una comprensione e applicazione del diritto più efficace e aggiornata. La tecnologia e la libera condivisione del sapere giocano un ruolo chiave, fungendo da catalizzatori per un sistema giuridico dinamico e interconnesso. In questo contesto, il legislatore (in senso ampio, come ente regolatore) non è più distante o isolato, ma parte attiva di un dialogo costante con gli altri attori, con l’obiettivo di promulgare leggi che rispecchino le necessità e le evoluzioni della società. Inoltre, la collaborazione internazionale è vitale per affrontare sfide che trascendono i confini nazionali, sviluppando approcci coordinati per la regolamentazione dell’IA.

 

 

Come si delimita il concetto di “mercato rilevante” nell’ambito dell’economia digitale e quali implicazioni ha ciò per la determinazione dell’esistenza di una posizione dominante di un’intelligenza artificiale?

L’individuazione di un mercato rilevante non è sempre di agevole individuazione. La tendenza delle Autorità (in particolare, Autorità Garante della Concorrenza e del Mercato)  è quella di frammentare lo stesso. Nell’ambito dell’economia digitale,  poi, la delimitazione del “mercato rilevante” è assai complesso rispetto a mercati tradizionali. Ciò dipende dalle peculiarità di prodotti e servizi digitali e  dalla velocità dell’innovazione tecnologica, con possibili successive modifiche del perimetro del mercato da considerare al fine di verificare l’esistenza di una posizione dominante. In particolare, l’innovazione rapida può alterare velocemente i confini del mercato ed anzi nuove  tecnologie possono creare nuovi mercati, oltre a modificare quelli esistenti, in modo attualmente non prevedibile.

Per determinare il mercato rilevante di  IA, vanno considerati come criteri: sostituibilità (di prodotti o servizi, in tal caso IA, considerate o meno intercambiabile da parte dei consumatori); funzionalità (delle IA per specifici bisogni del mercato); utenza finale (caratteristiche dei consumatori); ambito geografico (relativamente al luogo in cui l’IA viene commercializzata e utilizzata). A titolo esemplificativo, si possono così distinguere mercati di IA rispetto ad alcuni settori, quali redazione di testi (realizzazione di documenti su specifici argomenti, sintesi e traduzioni), assistenza sanitaria (diagnostica automatizzata, assistenza personalizzata, e monitoraggio dei pazienti), finanza (analisi di mercato, gestione del rischio, sistemi di trading automatizzati), servizi ai consumatori (assistenza clienti automatizzata e virtuale), trasporti  (automazione di veicolo, ottimizzazione di rotte) e logistica (gestione delle scorte).

Le autorità di regolamentazione devono valutare la posizione dominante e le pratiche anticoncorrenziali nell’ambito di tali mercati ben definiti e specifici per le funzioni delle IA.

 

 

Quali potrebbero essere i comportamenti considerati abusivi di un’intelligenza artificiale dominante e come potrebbero essere sanzionati dalle autorità competenti?

Nell’era digitale, l’espansione dell’intelligenza artificiale (IA) solleva questioni giuridiche complesse, particolarmente in relazione ai comportamenti che potrebbero essere considerati abusivi da parte di sistemi di IA dominanti. La discriminazione algoritmica e la manipolazione dell’informazione costituiscono appena l’avvio di un vasto panorama di complessità e questioni emergenti.

La discriminazione algoritmica, ad esempio, pone sfide uniche alla giustizia e all’equità, visto che gli algoritmi, benché apparentemente neutri, possono riflettere o esacerbare pregiudizi esistenti nella società. Questo può tradursi in decisioni ingiuste in settori critici come l’impiego, il credito, la sanità e l’istruzione, dove algoritmi di IA possono determinare chi ottiene un lavoro, chi può accedere a un prestito o quali trattamenti medici vengono suggeriti.

Per contrastare tali pratiche, le autorità competenti devono non solo identificare e sanzionare gli abusi, ma anche promuovere l’adozione di principi di trasparenza e accountability nell’uso degli algoritmi. Questo potrebbe includere l’obbligo per le imprese di sottoporre i loro algoritmi a revisioni indipendenti o di rendere pubblici i criteri su cui si basano le decisioni algoritmiche.

Inoltre, la manipolazione dell’informazione attraverso l’uso di IA, come la diffusione di fake news o la creazione di contenuti ingannevoli per il tramite deepfake, solleva preoccupazioni significative riguardo all’integrità del discorso pubblico e alla salute delle democrazie. In questo contesto, le autorità possono ricorrere a una serie di strumenti sanzionatori, che vanno dalla richiesta di rimozione dei contenuti falsi fino all’imposizione di pesanti multe a chi ne è responsabile.

Tuttavia, l’applicazione di tali misure richiede un quadro normativo chiaro e aggiornato che tenga conto delle peculiarità dell’IA e delle sue potenziali evoluzioni. Ciò implica la necessità di una collaborazione stretta tra esperti di tecnologia, legislatori e organismi di regolamentazione per sviluppare leggi e regolamenti che siano al contempo efficaci e flessibili.

Un aspetto importante è rappresentato dalla capacità delle autorità di mantenere il passo con l’evoluzione tecnologica. L’IA evolve rapidamente, e le leggi e le regolamentazioni possono facilmente diventare obsolete. Pertanto, è fondamentale che i sistemi giuridici siano dotati della capacità di adattarsi rapidamente a nuovi sviluppi, potenzialmente attraverso l’istituzione di organismi regolatori specializzati o l’adozione di regolamenti dinamici che possano essere aggiornati senza la necessità di un lungo processo legislativo.

Infine, data la natura globale dell’IA e delle tecnologie digitali, è essenziale una cooperazione internazionale tra le autorità di regolamentazione. Molti abusi di IA non conoscono confini nazionali, e quindi rispondere efficacemente a tali sfide richiederà uno sforzo coordinato a livello globale, che includa lo scambio di informazioni, la condivisione delle migliori pratiche e la collaborazione su standard e normative comuni.

 

 

Qual è il ruolo delle autorità di controllo nell’ambito dell’intelligenza artificiale, e quali potrebbero essere le sfide e le opportunità nell’istituzione di un’autorità ad hoc per regolare l’IA, prendendo ad esempio l’AESIA spagnola?

L’introduzione di un’autorità di controllo ad hoc per l’intelligenza artificiale, come l’Autoridad Española de Supervisión de la Inteligencia Artificial (AESIA) in Spagna, è da me sicuramente apprezzata anche per evitare conflitti tra preesistenti autorità. Inoltre, come prima ho precisato, una delle questioni da affrontare nella regolamentazione è la velocità dell’innovazione tecnologica, che può rendere obsolete le normative e quindi i paramtri di competenza delle autorità preesistenti.

La complessità tecnica dell’intelligenza artificiale richiede inoltre un livello di competenza che può essere difficile da assicurare, richiedendo un impegno significativo nella formazione e nel reclutamento di personale qualificato.

In ogni caso, l’IA non conosce confini geografici, rendendo imperativa la cooperazione internazionale per affrontare efficacemente i rischi associati, una sfida che richiede un impegno globale.

L’introduzione di un ente regolatorio per l’intelligenza artificiale in Italia, ispirato all’Autoridad Española de Supervisión de la Inteligencia Artificial (AESIA) spagnola, rappresenterebbe un passo significativo verso la regolamentazione di questa tecnologia in rapida evoluzione. Un tale organismo avrebbe il compito di navigare tra le acque complesse dell’IA, assicurando che il suo sviluppo e utilizzo avvengano in modo etico e conforme alle normative, pur promuovendo l’innovazione e la competitività nazionale.

La genesi di un’autorità simile all’AESIA in Italia richiederebbe un’attenta pianificazione e un ampio consenso. Inizierebbe con un’analisi approfondita dell’ecosistema dell’IA nel paese, identificando sia le opportunità che le sfide specifiche del contesto italiano. Questo processo dovrebbe essere inclusivo, coinvolgendo una varietà di stakeholder, dalla comunità accademica alle imprese del settore, dagli esperti legali alla società civile, per garantire che la voce di tutti sia ascoltata.

Sulla base di queste consultazioni, si potrebbe delineare un quadro normativo che definisca chiaramente le competenze e le responsabilità dell’ente, tenendo conto della necessità di bilanciare la tutela dei diritti individuali con la promozione dell’innovazione tecnologica. Questo quadro dovrebbe essere accompagnato da un impegno a fornire all’ente le risorse necessarie per operare efficacemente, inclusi finanziamenti, competenze e strumenti tecnologici.

La selezione del personale rappresenterebbe un aspetto cruciale, richiedendo individui con una vasta gamma di competenze, dalla tecnologia all’etica, dal diritto alla politica pubblica, per assicurare un approccio olistico alla regolamentazione dell’IA. Con una solida base istituzionale e una chiara missione, l’ente potrebbe quindi lanciarsi in un’attività di sensibilizzazione, educando sia i creatori che gli utenti di IA sull’importanza della conformità etica e legale.

Per mantenere il passo con l’evoluzione tecnologica, l’autorità dovrebbe anche impegnarsi in un continuo processo di autovalutazione e aggiornamento, adattando le sue strategie e politiche alle nuove scoperte e applicazioni dell’IA.

Inoltre, la collaborazione internazionale sarebbe essenziale, condividendo le migliori pratiche e standard con enti simili in altri paesi per affrontare le sfide transnazionali che l’IA pone.

L’istituzione di un’autorità dedicata all’IA in Italia, quindi, non sarebbe solo una risposta ai rischi associati a questa tecnologia, ma anche un’opportunità per posizionare il paese come leader nella regolamentazione dell’IA, equilibrando saggiamente innovazione e diritti umani in quest’era digitale.

Pertanto, l’istituzione di autorità di regolamentazione come l’AESIA non solo serve a garantire una gestione etica e sicura dell’intelligenza artificiale, ma assume anche un ruolo cruciale nel promuovere la competitività tecnologica di un paese. Questa dinamica crea un ambiente favorevole che attrae investimenti e talenti, particolarmente verso pratiche di sviluppo sostenibili e responsabili. In questo contesto, l’idea di posizionare un’autorità simile nel Mezzogiorno d’Italia non solo può stimolare l’innovazione tecnologica in questa specifica area geografica, ma può anche servire da catalizzatore per rivitalizzare l’economia locale attraverso la tecnologia.

L’ubicazione di un’entità regolatoria di tale importanza nel Sud Italia offre l’opportunità di colmare il divario tecnologico e economico tra le diverse regioni del paese, promuovendo l’equità territoriale nello sviluppo tecnologico. Questa scelta strategica potrebbe incoraggiare le imprese hi-tech e i centri di ricerca a stabilirsi nel Mezzogiorno, beneficiando di un quadro regolatorio chiaro e di incentivi mirati. Di conseguenza, si potrebbe assistere alla creazione di un ecosistema innovativo, dove università, start-up, incubatori e centri di ricerca operano in sinergia, favorendo lo scambio di conoscenze e stimolando la creazione di posti di lavoro qualificati.

Inoltre, posizionando l’autorità in questa regione, lo Stato potrebbe implementare programmi specifici di formazione e sviluppo per preparare la forza lavoro locale alle sfide del futuro, rendendo il Mezzogiorno un polo attrattivo per i talenti nazionali e internazionali interessati a lavorare in ambito IA e tecnologico. Questo, a sua volta, potrebbe stimolare la nascita di altre attività innovative in campo tecnologico, specialmente quelle legate alla ricerca scientifica, creando un circolo virtuoso che contribuisce sia al progresso tecnologico che allo sviluppo economico sostenibile dell’area.

L’istituzione di un’autorità come l’AESIA nel Mezzogiorno d’Italia rappresenterebbe quindi un forte segnale della volontà del paese di investire in tecnologia e innovazione in maniera inclusiva e distribuita sul territorio, ponendo le basi per uno sviluppo equilibrato e per la crescita di un’economia basata sulla conoscenza e sulla sostenibilità.

 

 

 

 

 

a cura di Valeria Montani

 

 

 

Back To Top