skip to Main Content

Progetto DiCit: sostenibilità digitale e Carta Europea di Cittadinanza Digitale. Intervista alla Prof.ssa Roberta Montinaro

In merito al progetto Dicit – Digital citizenship in the European Union ed all’edizione annuale della Summer School “Innovazione digitale e sostenibilità”, la Redazione di Dimt ha intervistato la Prof.ssa Roberta Montinaro. Professore associato di diritto privato presso l’Università degli Studi di Napoli “L’Orientale”, dove insegna Diritto dei privati e delle imprese presso il Dipartimento di Scienze Umane e Sociali. Tra i principali interessi di ricerca della Prof.ssa Montinari, si segnalano temi attinenti al diritto del trust, della responsabilità civile e dei consumatori, nonché al diritto delle nuove tecnologie. Dal 2020 è Coordinatrice Accademica del Modulo Jean Monnet dal titolo Digital citizenship in the European Union (DiCit).

 

La Prof.ssa Roberta Montinaro 

 

 

Con l’evento Summer School “Innovazione digitale e sostenibilità”, nato a sua volta dal progetto Dicit, verrà trattato il tema della sostenibilità dell’innovazione digitale in un’ampia cornice che include diverse accezioni di questo innovativo concetto. Ma cos’è la sostenibilità digitale in un’ottica giuridica? Perché deve preoccupare anche i giuristi e non solo i professionisti in materia di economia e politica? Quali sono gli obiettivi rispetto agli atti normativi dell’Unione Europea in materia?

 

Le tecnologie digitali sono dotate della capacità di conformare i rapporti sociali ad ogni livello (dai rapporti tra privati a quelli tra privati e sfera pubblica). Non a caso gli studiosi di teoria della regolazione le qualificano come “emergenti” nel significato di idonee a mettere in crisi le categorie concettuali con cui le diverse discipline sono solite interpretare e decifrare il proprio oggetto. Basti pensare – per limitarci a pochi esempi attinenti al campo del diritto ed in particolare del diritto privato – alle categorie di identità dell’individuo, di bene, di proprietà, etc.

La modernità è ambivalente – per dirla con il filosofo – ed occorre allora rammentare la lezione dei Maestri che ci esortano a sottrarsi alle prese di posizione ideologiche, per le quali lo sviluppo tecnologico è di per sé foriero esclusivamente di effetti vantaggiosi per la società e l’economia. In quest’ottica entra in gioco il concetto di sostenibilità tanto abusato quanto nodale, perché posto al centro dell’agenda politica corrente ad ogni livello, nazionale e sovranazionale.

La sostenibilità, riferita allo sviluppo in generale ed a quello tecnologico in particolare, costituisce un concetto elaborato nel campo delle discipline economiche e da qualche tempo in qua transitato nell’ambito dell’etica, della politica e del diritto. Il giurista ha quale punto di riferimento innanzitutto il concetto di sostenibilità desumibile dall’Agenda ONU 2030 ove essa è declinata prestando attenzione alle tre dimensioni, economica, sociale ed ambientale, tra loro interconnesse.

Va osservato che la digitalizzazione può creare i presupposti essenziali per le trasformazioni necessarie al fine di perseguire la sostenibilità in questa triplice dimensione, ma è anche in grado di mettere in pericolo il raggiungimento dei relativi obiettivi.

L’evoluzione incontrollata delle tecnologie digitali, tra le altre conseguenze, ha determinato il raggiungimento, da parte di pochi attori privati di grandi dimensioni, della c.d. sovranità dei dati (che si è tradotta in sovranità sulla conoscenza estraibile da quei dati), la quale non solo contraddice l’obiettivo della riduzione delle disuguaglianze ma anzi crea un sempre più marcato divario tra i c.d. Giganti della Rete e le autorità pubbliche. Inoltre, sul piano economico essa determina squilibri tra attori economici di grandi dimensioni e piccole e medie imprese, con tutte le ricadute pregiudizievoli che un simile squilibrio determina (cfr. Comunicazione della Commissione Europea (10.3.2020 COM(2020) 103 final) “Una strategia per le PMI per un’Europa sostenibile e digitale”), nonché tra imprese e consumatori. Attraverso il controllo delle informazioni ed il monitoraggio degli individui poi le piattaforme digitali tendono ad influenzare le relazioni di mercato ma anche l’esercizio dei diritti dei singoli e delle libertà democratiche. Infine, lo sviluppo delle tecnologie digitali va adeguatamente gestito affinché non si traduca nella creazione di nuove barriere nel mercato del lavoro e nell’accesso ai sistemi educativi, come l’esperienza della pandemia ci ha insegnato.

Da qui l’importanza di un’adeguata governance al fine di impedire un’estensione incontrollata del potere delle grandi imprese di information and communication technology. La sostenibilità dell’innovazione digitale nelle tre accezioni considerate è al centro delle politiche e delle iniziative legislative recenti dell’UE.

Quanto alle prime, le istituzioni europee hanno acquisito consapevolezza che la transizione verso un’Europa maggiormente sostenibile dal punto di vista economico, ambientale e sociale deve andare di pari passo con la transizione verso la digitalizzazione (cfr. la Comunicazione della Commissione Europea “Una strategia per le PMI per un’Europa sostenibile e digitale”, già menzionata). Inoltre, la Risoluzione del Parlamento Europeo del 25 novembre 2020 sul tema “Verso un mercato unico più sostenibile per le imprese e i consumatori”, individua quali passaggi necessari la regolamentazione delle informazioni e della pubblicità online, attraverso il controllo delle pratiche di raccolta dei dati personali e dei modelli di business, adottati dagli intermediari online.

Quanto alle iniziative legislative, il pensiero corre innanzitutto al c.d. Digital Package, ma anche al c.d. European Democracy Action Plan della Commissione Europea. Mentre è indubbio che il Digital Market Act persegue obiettivi di sostenibilità economica (in chiave di ridimensionamento e controllo dell’operato delle piattaforme che abbiano il ruolo di gatekeepers), la proposta di regolamento nota come Digital Services Act reca in premessa un riferimento esplicito alla sostenibilità, laddove precisa che la dipendenza della nostra economia e società dai servizi digitali nella fase di pandemia ha reso ancor più evidenti gli enormi benefici ma anche i considerevoli rischi che ne discendono, mettendone chiaramente in luce la natura bifronte, di strumenti in grado ad un tempo di promuovere e di ostacolare il raggiungimento degli obiettivi dello sviluppo sostenibile.

Da qui l’attenzione alla sostenibilità sociale della digitalizzazione: innanzitutto la proposta di regolamento ha l’ambizione di creare un quadro giuridico di riferimento in grado di salvaguardare i diritti ed i legittimi interessi di tutte le parti coinvolte, dando centralità al concetto di cittadinanza digitale. Sulla stessa linea si colloca il già citato European Democracy Action Plan, il quale significativamente intende andare oltre la mera dimensione economica delle politiche europee, preoccupate esclusivamente di costruire un efficiente Mercato Unico Digitale, nella consapevolezza che il monopolio delle informazioni da parte dei Giganti della Rete e l’opacità della decisione algoritmica trascende oramai la regolamentazione del mercato per toccare il tema della sovranità.

Il Digital Services Act non trascura del tutto nemmeno la sostenibilità ambientale della digitalizzazione, laddove si sottolinea la necessità di promuovere la crescita sostenibile e la sostenibilità dell’e-commerce e si mette in luce il ruolo che possono svolgere gli intermediari online nella transizione verso una produzione ed un consumo sostenibili, sia astenendosi dal ricorrere a pratiche di disinformazione ed a falsi “green claims”, sia fornendo ai consumatori informazioni circa l’incidenza sull’ambiente dei prodotti e dei servizi resi loro disponibili.

Compito del diritto è imprimere una direzione allo sviluppo tecnologico, tale da rendere quest’ultimo sostenibile dal punto di vista sociale ed economico, prima ancora che ambientale. Produzione legislativa (ad ogni livello) ed interpretazione giuridica sono entrambe cruciali a questo fine.

Si rende necessario innanzitutto conformare l’architettura dei poteri privati, ad esempio, ponendo fine o prevenendo la formazione di posizioni dominanti nei mercati di riferimento. Occorre poi promuovere la responsabilizzazione di tutti gli attori, pubblici e privati; essenziale, a tale ultimo fine, sia stimolare l’acquisizione di consapevolezza da parte delle istituzioni, comunità ed individui, sia e soprattutto creare i necessari incentivi affinché la stessa concezione delle tecnologie avvenga tenendo conto dei rischi di danno per i diritti dei singoli e delle conseguenze sociali svantaggiose.

La sostenibilità dell’ambiente digitale non può essere affidata alla prospettiva, che è stata sino ad ora imperante, della privatizzazione/contrattualizzazione dei rapporti, la quale si è rivelata inadeguata a fronteggiare da sola le sfide della rivoluzione digitale. A questo riguardo, uno Studio del Consiglio d’Europa (DGI (2020)16 “Global perspectives on the development of a legal framework on Artificial Intelligence systems based on the Council of Europe’s standards on human rights, democracy and the rule of law”) sottolinea come gli strumenti di soft law – seppur utili per preparare il terreno alla futura legislazione grazie alla partecipazione dei diversi attori economici ed istituzionali – possono essere viziati da conflitti di interesse ed animati dal fine di impedire l’adozione di regolamentazioni vincolanti. Rischi ovviabili invece in presenza di fenomeni di co-regolazione.

Non meno importante è inoltre garantire l’accesso a tutele effettive, non solo attraverso l’introduzione di nuove regole, laddove necessarie, ma anche attraverso un’accorta attività di adeguamento, anche in via di interpretazione, delle discipline già esistenti.

Lo sguardo consapevole del giurista poi può servire a cogliere le insidie che si celano dietro certe interpretazioni delle disposizioni normative. Ad esempio, la regolamentazione sul controllo dei dati (pur cruciale, giacché è proprio tale controllo che consente di acquisire le posizioni di potere già ricordate e di creare squilibri sia nei rapporti tra piattaforme online e loro utenti commerciali, sia nelle relazioni con i consumatori) non può esaurire l’attenzione del giurista, ma va intesa tenendo conto altresì della importanza delle scelte degli operatori online, concernenti l’impiego dei dati e la costruzione dei sistemi intelligenti; giacché soltanto in questo modo si possono creare gli incentivi necessari a garantire la trasparenza e conformità ai principi giuridici dei modelli di business adottati dalle piattaforme online.

Inoltre, occorre applicare una sana dose di spirito critico quanto ci si accosta ad alcuni meccanismi della c.d. tecno-regolazione, primo tra tutti il principio di accountability, cui, come detto, la legislazione europea attribuisce un ruolo centrale al fine di assicurare la sostenibilità delle tecnologie digitali. Tale concetto – insieme alla tutela by design di diritti ed interessi, che del primo costituisce manifestazione – esprime la consapevolezza che il diritto di fonte statale o sovranazionale debba interviene facendo in modo che tali diritti ed interessi vengano direttamente incorporati nelle tecnologie, senza di che la governance delle tecnologie resterebbe affidata interamente agli attori privati. Al tempo stesso però, non bisogna perdere di vista il profilo problematico rappresentato dal rischio di un livellamento verso il basso del grado di tutela, promuovendo la sindacabilità della scelta tecnica espressa nell’applicazione by design e della sua adeguatezza.

 

 

Nelle sfide legate alla transizione verso una società sempre più permeata dalle Intelligenze Artificiali, sfruttate in particolar modo da intermediari online, a Suo avviso qual è il ruolo dei giuristi?

La crescita rapidissima delle tecnologie ed applicazioni di Intelligenza Artificiale (d’ora in poi “IA”), resa possibile da quantità sempre crescenti di dati e dall’accresciuta potenza di calcolo dei dispositivi informatici, ha dato origine ad una nuova disciplina, l’etica dell’IA, consistente nello studio delle questioni etiche e sociali che devono affrontare sviluppatori, produttori, consumatori, cittadini, politici e organizzazioni della società civile. Questo campo di studi, dopo essersi nel tempo concentrato su ciò che l’IA è in grado di fare e sui rischi connessi alle tecniche di apprendimento automatico (la lesione della privacy, l’opacità dell’algoritmo black-box, gli esiti discriminatori delle decisioni algoritmiche dovute a distorsioni nei dati di addestramento e nei modelli di apprendimento, etc.), mette ora al centro lo sviluppo sostenibile, al fine di dirigere l’uso dell’IA verso usi “buoni” (si pensi al movimento AI4Good, che vede coinvolti studiosi di rilievo, tra cui Luciano Floridi), con attenzione all’intero ciclo di vita dell’IA (progettazione, formazione, sviluppo e uso).

In questo campo è emersa una distinzione cruciale, quella tra una prospettiva che considera l’IA per la sostenibilità, rappresentata da movimenti quali quello appena ricordato, ed un’altra che, invece, prende in esame la sostenibilità dell’IA, del design, sviluppo ed impiego dell’AI e delle relative applicazioni, con particolare attenzione ai costi per la società e l’economia, oltre che sotto il profilo della protezione degli individui e delle delicate questioni etiche che l’AI solleva. Una nuova frontiera ancora inesplorata, soprattutto dal punto di vista giuridico, è poi anche quella della sostenibilità dell’Intelligenza artificiale rispetto all’ambiente.

E’ allora importante che anche il giurista abbia consapevolezza di simili temi e che non resti, per così dire, alla finestra. Valga al riguardo un esempio che si trae dagli studi in tema di AI Ethics e sostenibilità. Si osserva che l’IA può essere utile nella individuazione e nel superamento delle cause delle diseguaglianze, ma che essa può altresì creare nuove forme di discriminazione: come avviene nel caso del targeting automatizzato della pubblicità di offerte di lavoro, che riproducano pregiudizi di sorta propri di coloro che hanno provveduto alla preparazione dei dati ed al design degli algoritmi utilizzati per i processi di selezione. Il contributo del giurista risiede nell’individuare i rimedi giuridici invocabili in un simile caso alla luce del diritto vigente, nonché nel fungere da stimolo per il legislatore affinché, ove necessario, stabilisca esplicite regole (si pensi al dovere di controllare la qualità dei dati di cui alla proposta di regolamento di Artificial Intelligence Act (COM(2021) 206 final, dell’aprile 2021)). Importante è poi che il giurista sappia cogliere le nuove tendenze. Ed a questo riguardo entra nuovamente in gioco la sostenibilità dell’IA.

Con riguardo a queste tecnologie, come detto, è necessario assicurare il rispetto dei diritti fondamentali della persona, quali la vita privata e la riservatezza, ma anche del diritto alla trasparenza e comprensibilità dei processi decisionali, del divieto di discriminazione e, soprattutto, della dignità umana.

Oltre alla dimensione individuale, viene in rilievo negli strumenti giuridici sovranazionali una nuova dimensione, quella collettiva o sociale.Così è già nel Libro bianco sull’intelligenza artificiale della Commissione Europea – Un approccio europeo all’eccellenza e alla fiducia del 2020, il quale, a ben vedere, ripropone per l’IA i requisiti individuati negli orientamenti del Gruppo indipendente di Esperti di alto livello sull’Intelligenza Artificiale (in particolare, nel documento Orientamenti etici per un’Intelligenza Artificiale affidabile del Gruppo del 2019): intervento e sorveglianza umana, robustezza e sicurezza, riservatezza e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale ed ambientale e accountability.

Tra gli istituti giuridici contemplati dalla proposta di Aritifical Intelligence Act, compaiono, accanto a strumenti già sperimentati, come la standardizzazione e le norme tecniche, anche elementi di maggiore novità, quali l’obbligo di verificare che l’IA presenti i requisiti appena ricordati, ivi inclusa la robustezza della tecnologia, da intendere non solo dal punto di vista tecnico ma anche da quello sociale, giacché, al di là dell’indubbio accento posto sulla responsabilizzazione degli attori economici in vista della prevenzione dei rischi, si dovranno valutare le conseguenze che certe tecnologie di AI ed i loro impieghi potranno avere anche su interessi meta-individuali. Lo stesso è a dirsi della importante novità che si vorrebbe introdurre con tale proposta, costituita dalla valutazione dei rischi c.d. sistemici, che non può dirsi circoscritta ai rischi di lesione delle situazioni giuridiche soggettive. In questo modo, si vorrebbe cogliere l’invito, rivolto al legislatore da alcuni esponenti dell’Accademia, ad andare oltre la considerazione della tutela della privacy degli individui, attuando un cambiamento di paradigma di notevole importanza.

 

 

La Carta Europea di Cittadinanza Digitale rientra come una delle attività finanziate dalla Commissione Europea. Può parlarci di questo ambizioso obiettivo del progetto Dicit?

Scopo del progetto è quello di offrire ad una platea mista di destinatari, costituita da studenti universitari, accademici, ma anche esponenti di enti ed istituzioni, un’occasione di approfondimento e dialogo circa le principali sfide collegate all’avvento delle tecnologie digitali e, soprattutto, alle trasformazioni che esse vanno imprimendo su Stato, società e mercato. L’oggetto del Modulo DiCit induce a rivolgere particolare attenzione alla tutela dei diritti delle persone, nel tentativo di riempire di contenuto il concetto di cittadinanza digitale.

In quest’ottica, nell’arco di un periodo che si estenderà fino al 2023, il Modulo DiCit ospiterà vari momenti di formazione, costituiti essenzialmente da moduli di insegnamento collocati all’interno dei percorsi universitari dell’Università Orientale e da un’annuale Summer school, nei quali tuttavia alla didattica in senso stretto si affiancheranno incontri di ricerca e discussione, dedicati ai molteplici aspetti legati alla rivoluzione digitale in atto, da svolgersi in un’ottica di apertura verso le varie componenti della società civile, dell’Accademia e delle istituzioni pubbliche ed economiche, interessate dai processi di trasformazione appena ricordati. Uno specifico momento, collocato, in particolare, all’interno della Summer School, verrà dedicato alla formazione continua rivolta al mondo della Scuola, con il fine di promuovere l’educazione digitale di minori ed adolescenti. Obiettivo finale di queste attività sarà la redazione di una Carta Europea della Cittadinanza Digitale, in cui l’insieme dei diritti e dei doveri di un cittadino digitale europeo dovrà essere sviluppato e illustrato anche alla luce delle recenti iniziative legislative intraprese dalle istituzioni dell’UE. Il collegamento tra formazione e redazione della Carta non è stato scelto in maniera casuale.

Le istituzioni dell’Unione europea sono profondamente consapevoli del fatto che molti cittadini non hanno la capacità di sfruttare appieno il potenziale delle tecnologie digitali nella loro vita quotidiana e per questo motivo la Commissione europea ha sviluppato il Quadro europeo di competenze digitali per i cittadini – DigComp – che riguarda principalmente l’insegnamento, l’apprendimento e la valutazione di queste competenze. Tuttavia, essere digitalmente competenti è più che essere in grado di usare le tecnologie digitali; significa essere in grado di usarle in modo critico e collaborativo. Ne consegue che, al fine di godere di tutti i benefici e le opportunità della rivoluzione digitale, gli individui e gli altri attori privati devono comprendere appieno i loro diritti e doveri.

Da un punto di vista giuridico, è quindi importante determinare l’insieme dei diritti e dei doveri associati all’uso dello spazio digitale e riunirli sotto il concetto di cittadinanza digitale. Tuttavia, l’uso di questo concetto è stato finora piuttosto limitato: ad esempio, secondo la legge italiana, la cittadinanza digitale comprende solo il diritto dei cittadini e delle imprese, quando hanno a che fare con le istituzioni pubbliche, di accedere a dati, documenti e servizi in modalità digitale.

Lo spazio digitale costituisce invece una sfera sovranazionale, slegata da un singolo territorio e da un singolo ordinamento giuridico statale, e le norme che regolano questo spazio sono per lo più di natura sovranazionale.

È quindi necessario adottare un punto di vista non limitato ad un sistema giuridico nazionale. A questo proposito, il diritto dell’Unione europea gioca un ruolo importante nella creazione di queste regole, insieme al diritto internazionale e alle disposizioni di soft law, giacché si tratta delle fonti del diritto che regolano i vari aspetti della nuova società digitale e della sua economia.

 

 

Back To Top