skip to Main Content

Intervista alla Prof.ssa Fernanda Faini in merito alla recente pubblicazione: “Scienza giuridica e tecnologie informatiche”

Per l’appuntamento settimanale delle interviste realizzate da DIMT, la Redazione ha intervistato la Prof.ssa Fernanda Faini in merito alla recente pubblicazione Scienza giuridica e tecnologie informatiche. Temi e problemi.

Fernanda Faini, PhD in Diritto e nuove tecnologie presso l’Università di Bologna, è research fellow e docente di Diritto dell’informatica presso l’Università di Pisa, dove è membro del Centro interdipartimentale “Diritto e Tecnologie di Frontiera” (DETECT), ed è professoressa a contratto di “ICT & Law” presso l’Università Cattolica del Sacro Cuore, campus di Piacenza; è, altresì, docente di “Diritto e nuove tecnologie” presso l’Università Telematica Internazionale Uninettuno. Affiliate scholar dell’“Information Society Law Center” (ISLC) dell’Università degli Studi di Milano, è fellow dell’“Italian Academy of the Internet Code” (IAIC) e componente dello Steering Committee dell’Unità di ricerca “Blockchains and Artificial Intelligence for Business, Economics and Law” (BABEL) dell’Università degli Studi di Firenze. Funzionario legislativo-legale presso la Regione Toscana, è docente in corsi e master universitari, autrice di numerose pubblicazioni, membro di gruppi di ricerca, componente di comitati editoriali e scientifici, organizzatrice e relatrice di convegni e conferenze, a livello nazionale e internazionale; è stata Presidente dell’associazione nazionale Circolo dei Giuristi Telematici.

 

La Prof.ssa Fernanda Faini

 

Quali punti di osservazione il volume “Scienza giuridica e tecnologie informatiche. Temi e problemi” ha voluto proporre al lettore?

Il volume “Scienza giuridica e tecnologie informatiche. Temi e problemi” (Giappichelli, 2021), scritto insieme al Prof. Stefano Pietropaoli, affronta il rapporto tra scienza giuridica e tecnologie informatiche, questione ormai ineludibile non solo per il giurista, ma per chiunque intenda misurarsi con le istanze della società digitale.

Al fine di affrontare la relazione che lega diritto e tecnologia ci siamo confrontati su temi attuali e significativi relativi all’informatica giuridica e al diritto dell’informatica, esaminando l’impatto della tecnologia sulla società nel suo complesso, sulla persona e i suoi diritti, sugli istituti e sugli strumenti del diritto.

Il volume è diviso in quattro parti.

La prima parte “Diritto, persona e istituzioni” affronta il diritto delle nuove tecnologie e, di conseguenza, l’informatica giuridica e il diritto dell’informatica, ed è tesa ad osservare sotto la lente giuridica i soggetti e gli “attori” della dimensione digitale. A tal fine esamina la persona e i diritti digitali, analizzando l’impatto delle tecnologie informatiche sulle libertà costituzionali, la tutela dei dati personali e il right to be forgotten; nella prima parte sono oggetto di esame le nuove geometrie di potere e il volto delle istituzioni nella società tecnologica (l’amministrazione pubblica digitale e aperta).

La seconda parte “Beni e strumenti giuridici”, come indica il titolo, si concentra sulla disciplina degli “strumenti” del diritto nell’era digitale, costituiti da documenti informatici, firme elettroniche, comunicazioni telematiche e contratti digitali, e sulla tutela dei beni digitali, esaminando la proprietà intellettuale e la protezione che offre ad opere digitali e ai beni informatici (software e banche dati); in questa parte sono esaminati i segni distintivi costituiti dai nomi a dominio, il governo di dati e algoritmi, le questioni poste dalle tecnologie emergenti come intelligenza artificiale e blockchain, senza omettere di affrontare gli inediti bilanciamenti tra interessi e i difficili equilibri in tema di responsabilità, in cui emerge anche il ruolo dei soggetti della rete (i provider).

La terza parte, dedicata a “Crimini, processi e processori”, affronta il volto oscuro della dimensione digitale, i cybercrimes, l’informatica forense, la guerra cibernetica e la pirateria digitale; infine una parte conclusiva “Osservazioni finali” è dedicata alle sfide attuali e del prossimo futuro.

L’obiettivo perseguito dal volume è cercare di proporre al lettore alcuni punti di osservazione per riflettere sul destino della scienza giuridica nell’era tecnologica, avvalendosi anche dell’analisi di significativi casi di studio, costituiti da sentenze, atti e casi particolarmente significativi.

Il volume “Scienza giuridica e tecnologie informatiche. Temi e problemi”, come esplicitato fin dalla copertina, costituisce la seconda edizione completamente modificata, aggiornata e integrata del volume “Scienza giuridica e tecnologie informatiche” del 2017, un’opera nuova, maggiormente corposa e profondamente diversa rispetto alla prima edizione, pur rimanendo fedele al suo impianto originario e allo spirito che la animava.

Dopo che nel 2017 avevamo tentato di offrire un’occasione di riflessione su un ambito del sapere ormai imprescindibile nella formazione del giurista, ossia il rapporto tra diritto e tecnologie informatiche, il volume del 2021 è frutto del dialogo e del confronto, prima di tutto, tra noi e i nostri lettori: non solo studenti, giuristi e professionisti, ma più ampiamente chi ha mostrato interesse verso le istanze sempre nuove della società in cui vive. Per questo motivo, non ci siamo limitati ad aggiornare ed integrare le parti che più avevano risentito degli interventi normativi successivi alla prima edizione, ma abbiamo cercato di mettere a frutto la riflessione, il dibattito e il dialogo che si è articolato in questi anni nel rapporto tra diritto e tecnologie informatiche e nelle tematiche oggetto del volume. Di conseguenza il testo è stato ampiamente modificato e integrato per rispondere alle sollecitazioni degli ultimi anni che ci sono sembrate più incisive, è dedicato a nuovi casi di studio, è frutto del tentativo di comprendere e assorbire gli approfondimenti necessari.

 

Il diritto come affronta le sfide poste dalla regolamentazione della dimensione digitale e a quali mutamenti è esposto?

Le tecnologie, iniziale ausilio delle attività umane, nel corso del tempo sono riuscite a determinare una profonda trasformazione della stessa esistenza individuale e collettiva, accompagnata dall’emersione di nuove esigenze e dall’impatto sulle attività, sulle relazioni, sulla crescita sociale ed economica, sul modo di pensare dell’uomo.

A me piace definire la società odierna quale data society, una “società di dati” (cui ho dedicato la mia monografia precedente “Data society. Governo dei dati e tutela dei diritti nell’era digitale”, Giuffrè Francis Lefebvre, 2019), che non è soltanto fondata sui dati come nel suo avvento, ma ne è intimamente pervasa finendo per coinvolgere e plasmare l’uomo come un data subject.

Nella dimensione digitale, infatti, sono protagonisti i dati e le tecnologie capaci di estrarre valore dai dati (basta pensare alle tecnologie emergenti come l’intelligenza artificiale e la blockchain), che formano il nostro “io” digitale (noi siamo le nostre informazioni) e costituiscono il fondamento di ogni attività umana, capaci di pervadere ogni aspetto dell’esistenza in modo ubiquo, integrandosi negli oggetti (Internet of Things) e arrivando a generare soluzioni su cui l’uomo si interroga in merito a nuove forme di “soggettività” (intelligenza artificiale). Gli esseri umani, gli oggetti intelligenti, i robot si basano, elaborano e scambiano dati, conoscono e si conoscono grazie alle informazioni.

In tale mutato contesto, il diritto, da sempre strumento con cui l’uomo regola la vita, è chiamato a disciplinare le tecnologie informatiche, la dimensione digitale e il “diluvio di dati” che connotano l’esistenza contemporanea, al fine di tutelare i diritti e bilanciare interessi diversi e talvolta contrapposti, prevenendo e risolvendo i conflitti.

Nello svolgere la sua funzione il diritto è esposto a mutamenti che scaturiscono dalla data society stessa e sconta le peculiarità dell’oggetto che mira a regolare.

Un primo aspetto deriva dalla tecnologia, ossia la presenza di ecosistemi di regole diverse, quelle informatiche, istruzioni e codici; le regole applicate dal codice informatico (lex informatica o digitalis) hanno la capacità di condizionare i comportamenti umani, dal momento che abilitano azioni e interazioni e vi collegano effetti. Più ampiamente la lex informatica condiziona ogni altra forma di regolazione, compresa quella giuridica, e l’uomo, per mezzo dello strumento del diritto, deve essere capace di governarla; chi sviluppa algoritmi e codici potremmo dire che “detta legge” nella dimensione digitale. Del resto fin dagli anni ’60 la prima problematica che il diritto positivo si trova ad affrontare riguarda proprio il “cuore” della tecnologia: la tutela giuridica del software, del codice, il dialogo difficile, ma imprescindibile tra norme giuridiche e regole informatiche, cercando di raggiungere un complesso equilibrio, idoneo a non limitare l’evoluzione tecnica e, allo stesso tempo, capace di evitare la prevalenza della tecnologia sulla regolazione giuridica. Il bilanciamento tra il ruolo del diritto e le potenzialità tecnologiche è indispensabile non solo perché altrimenti il diritto non svolgerebbe la funzione di regolazione cui è chiamato, ma anche perché rischierebbe di votarsi all’inefficacia e al mancato rispetto nella realtà concreta.

In secondo luogo, nella dimensione digitale muta l’oggetto di regolazione, costituito da beni intangibili (i dati) invece di res corporales, da identità digitali dei soggetti e dal paradigma dell’accesso, capace di imporsi rispetto a quello della proprietà e del controllo tipico dell’approccio giuridico tradizionale. Inoltre l’evoluzione tecnologica delinea un modello di produzione paritetica, orizzontale e collaborativa, basato sulla diffusione, sulla condivisione e sul riutilizzo, che si affianca ai consolidati modelli verticali basati sul controllo di un’autorità centrale e stride con la struttura “proprietaria” della tutela giuridica, generando inedite problematiche giuridiche (è il caso della blockchain).

Nella dimensione digitale muta il campo d’azione dei singoli e della società con il superamento dei confini territoriali, la trasversalità e la globalizzazione delle fattispecie. La regolazione giuridica è portata a mutare in conseguenza della dimensione globale di riferimento e dei cambiamenti nei soggetti regolatori. Lo spazio-non spazio digitale, infatti, porta a ridefinire sfera pubblica e privata e prendono forma nuove geometrie di potere con il conseguente ripensamento del potere nazionale e l’erosione dei monopoli statali, da una parte, e, dall’altra, l’affermazione di quelli che amo definire i “controllori del pedaggio di accesso alla vita digitale”, i Big Tech. I colossi tecnologici, favoriti dal carattere sovranazionale delle questioni, dalla libertà di commercio, dalle maglie ampie o dalla presenza di disposizioni inadeguate a tutela dei diritti, concretamente producono regole in un contesto di disintermediazione in cui sono percepiti dalla collettività come spazi giuridici pubblici, sebbene non ne abbiano la connotazione, siano privi di legittimazione democratica e non siano guidati dall’interesse pubblico; sono riusciti, però, a dominare la dimensione globale grazie alle possibilità e agli strumenti garantiti dall’autonomia contrattuale privata, regolando l’accesso ai servizi e alle utilità della rete, incidendo così sui diritti e sulle libertà dei singoli.

La data society, se lasciata all’autoregolazione e al mercato, rischia una torsione atta ad assegnare il potere nelle mani di pochi, detentori di dati e conoscenza, imprevisti custodi del passato, del presente e, anche, del futuro (si pensi ai big data e alle loro predizioni).

 

L’Unione europea e il nostro Paese, come più ampiamente il mondo intero, stanno affrontando un’impegnativa transizione digitale: quale sarà il destino della regolazione giuridica e quali possono essere i futuri equilibri tra diritti e interessi diversi nell’era tecnologica?

Il governo della società digitale passa dal governo dei dati: le connessioni intricate di dati rivelano connessioni intricate di diritti, da bilanciare con accuratezza al fine di tutelare la persona e, insieme a lei, la società democratica presente e futura. Osservando attentamente la data society e collegandomi a quanto dicevo in merito al rapporto tra diritto e tecnologie informatiche, emergono problematiche che trovano fondamento nel funzionamento stesso della tecnologia, di dati e algoritmi, nel significativo squilibrio tra le parti in gioco (la persona è soggetto debole sia verso i poteri pubblici e ancor più verso i nuovi poteri privati), nell’opacità e finanche nella chiusura dei processi di gestione dei dati e, infine, nella conseguente incapacità del singolo di potersi tutelare in modo efficace da solo.

Proprio dall’analisi delle criticità emergono anche le possibili soluzioni, presenti anche nelle recenti proposte regolatorie dell’Unione europea in materia.

Innanzitutto il necessario bilanciamento tra diritti nel governo dei dati deve basarsi sulla centralità della persona, in particolare sulla dignità e sullo sviluppo della stessa, fondamenti sui quali convergono i diversi diritti; per raggiungere questo obiettivo è necessario un adeguato contesto istituzionale e il bilanciamento tra diritti diversi. A tal fine una strada promettente è costituita dall’incorporazione preventiva di principi etici e giuridici, norme e rimedi nella tecnologia stessa, dando vita a una legal protection by default e by design e a un diritto nella tecnica, abbracciando un approccio proattivo basato sull’accountability: il diritto può avvalersi della tecnica per garantire il suo rispetto. Tale prospettiva, che pervade il regolamento europeo in materia di dati personali 2016/679, è presente anche nella recente regolazione europea in materia; a guardare bene la stessa proposta di regolamento Artificial Intelligence Act sceglie un approccio preventivo e proattivo basato sul rischio e sulla categorizzazione preventiva delle soluzioni di intelligenza artificiale.

Naturalmente questo approccio di incorporazione del diritto nella tecnica non è scevro da criticità, come la rigidità ontologica del codice informatico, che può scontrarsi con la flessibilità necessaria al bilanciamento mobile tra diritti e interessi diversi, e il fatto che il rispetto dei principi giuridici e l’equilibrio tra diritti siano di fatto delegati a coloro che sono chiamati a sviluppare le soluzioni tecnologiche.

Pertanto, al netto di tali criticità, una solida data governance può basarsi su un approccio preventivo e tecnologico by default e by design e sull’accountability dei soggetti, immaginando soluzioni capaci di innovare i paradigmi tradizionali e minimizzare i rischi di asimmetria, quali la trasparenza, accompagnata dall’apertura dei big data, e la revisione delle forme di tutela del singolo, insieme alla costruzione di una governance efficace.

Sotto il primo profilo, la necessaria trasparenza sostanziale algoritmica si declina più propriamente in un diritto alla comprensibilità, alla spiegabilità e alla contestabilità dei dati e degli algoritmi, che diventa anche sindacabilità davanti a un giudice. Tale strada emerge dalla regolazione europea, ma altresì dalle sentenze della giustizia amministrativa relative al caso di utilizzo di algoritmi in ambito pubblico nelle procedure di mobilità della scuola. L’explainability consente di sposare l’approccio umanocentrico che pervade non solo gli atti europei in materia di intelligenza artificiale, ma anche lo stesso Digital Services Act, che impone alle piattaforme di motivare le loro decisioni a beneficio degli utenti e offrire tutti gli strumenti necessari per ricorrere contro tali scelte. In tal modo la tecnologia può mantenere la sua funzione di strumento “servente” rispetto all’essere umano e alle sue decisioni, soprattutto laddove incidano su diritti e libertà. Tali diritti si traducono più ampiamente nel diritto del singolo di mantenere la propria autonomia e autodeterminazione nei confronti della tecnologia e, di conseguenza, la propria libertà.

All’esigenza di una diversa e maggiormente profonda forma di trasparenza, si accompagna l’istanza di apertura dei big data (open big data) sia in ambito pubblico che privato, che può contribuire in modo decisivo a sanare le asimmetrie informative della dimensione digitale, mettendo a disposizione della collettività i dati. Tale ricostruzione, peraltro, si attaglia alla qualificazione dei dati come “beni pubblici”, dei quali possiedono quelle caratteristiche di non esclusività e non rivalità, al netto di concrete pretese di appropriazione e restrizioni surrettizie capaci di renderli di fatto “proprietà” di pochi soggetti. L’apertura è capace di determinare una “sanatoria” in direzione di democratizzazione, valorizzando la natura di beni comuni non solo dei dati e delle informazioni, ma anche degli interessi generali oggetto di protezione come trasparenza, partecipazione, democrazia, sviluppo economico, culturale e sociale. Tale prospettiva pervade i recenti atti europei di regolazione, basta pensare al Data Governance Act e al Data Act.

Sotto il secondo profilo, emerge l’esigenza di una revisione delle forme di tutela del singolo, che permetta di superare la “solitudine” della persona, spesso inconsapevole e in ogni caso incapace di potersi tutelare da sola in modo efficace. In concreto, la massa, grazie alle inferenze algoritmiche, orienta in modo automatizzato decisioni e predizioni anche laddove il singolo se ne discosti: nelle configurazioni odierne dei dati e degli algoritmi emerge l’impatto collettivo e sociale del loro utilizzo. Alla luce di tali aspetti e della congenita debolezza dello strumento del consenso individuale, la dimensione collettiva di tutela dei diritti può tradursi nell’introduzione di strumenti di negoziazione e protezione collettiva: mutando l’esercizio delle prerogative connesse ai diritti, può configurarsi una forma di autodeterminazione informativa della collettività e forme di tutela collettiva dei diritti, capaci di coadiuvare quelle individuali; al riguardo lo stesso Data Governance Act prevede significativamente il consenso all’utilizzo di dati personali con l’aiuto di un “intermediario per la condivisione dei dati personali”.

Per realizzare una tutela efficace ed effettiva dell’individuo gli strumenti richiamati devono accompagnarsi alla costruzione di una governance efficace. Fin dagli anni ’90 emerge prepotentemente l’esigenza di costruire una governance in materia con l’istituzione di soggetti dotati di indipendenza e chiamati ad occuparsi della tutela di diritti e del bilanciamento tra interessi diversi (Garante per la protezione dei dati personali, Autorità per le garanzie nelle comunicazioni, etc.), che si manifesta oggi a livello sovranazionale in modo deciso nelle nuove proposte regolatorie europee (i Comitati previsti nell’Artificial Intelligence Act e nel Digital Services Act). Al riguardo occorre far attenzione a non perdere un necessario approccio olistico con cui è opportuno affrontare la dimensione digitale, facendo pendere la bilancia sull’uno o sull’altro strumento o diritto a protezione del quale la specifica autorità è istituita e conseguentemente si muove. Ma sicuramente anche dalla creazione di questi organismi sovranazionali passa il necessario recupero dello spazio giuridico pubblico da parte delle autorità e delle istituzioni pubbliche.

A mio avviso, infatti, nel prossimo futuro emerge prepotentemente l’esigenza di recuperare uno spazio giuridico pubblico a tutela dei diritti e delle libertà della persona. Del resto può essere letta anche in tal senso la recente comunicazione della Commissione europea del 26 gennaio 2022, relativa alla definizione di una dichiarazione europea sui diritti e sui principi digitali per il decennio digitale, che costituisce una guida per una trasformazione digitale sostenibile, antropocentrica e basata sui valori.

A tal fine il livello cui guardare è necessariamente sovranazionale, quanto meno europeo, al fine di garantire efficacia alle norme, evitando la tensione altrimenti fisiologica tra la dimensione globale delle questioni e la dimensione territoriale delle disposizioni da applicare.

Nella regolazione in materia emerge, oltre all’estensione dell’ambito territoriale delle problematiche affrontate, tendenzialmente globale, anche l’ampiezza delle tecnologie, degli strumenti e dei temi oggetto di disciplina, che si coniuga all’eterogeneità degli atti che ospitano le regole: non solo norme strettamente intese, ma anche soft law, atti di indirizzo, linee guida e strategie di soggetti istituzionali, autorità amministrative indipendenti, organismi, comitati, fino anche a task force e gruppi di esperti nominati ad hoc; la complessità dei fenomeni deve essere affrontata con strumenti eterogenei prodotti non solo dalle istituzioni pubbliche competenti, ma anche da soggetti privati e dalla stessa società. Per poter essere efficace ed effettiva, infatti, la regolazione giuridica deve essere capace di integrare i diversi ecosistemi di regole e, di conseguenza, necessita di una genesi multilevel, che, in un approccio multistakeholder, si avvalga dei diversi portatori di interessi e di una conseguente corresponsabilità da parte dei differenti produttori di norme, giuridiche o meno, della nostra contemporaneità: poteri pubblici, ma anche poteri privati, capaci di dettare regole di accesso all’esistenza digitale; in questo contesto gli Stati sono chiamati a nuove forme di cooperazione e collaborazione.

In questa eterogeneità di fonti, l’esigenza di omogeneità di soluzioni ai problemi sollevati dall’impatto delle tecnologie informatiche sulla vita determina il cambiamento di approccio da parte dell’Unione europea negli ultimi anni con una tendenza nel tempo a “inasprire” la forza degli atti normativi assunti a livello sovranazionale (da soft law ad hard law), al fine di garantirne effettività; è il caso del regolamento europeo che con la sua maggiore vis sugli Stati membri negli ultimi anni prende il posto dello strumento della direttiva: già il regolamento europeo 2016/679 sui dati personali e il regolamento europeo 2018/1807 sui dati non personali e, più di recente, le proposte di regolamento come il Data Governance Act del 25 novembre 2020 (di recente approvazione), il Digital Services Act e il Digital Markets Act, entrambe del 15 dicembre 2020, l’Artificial Intelligence Act del 21 aprile 2021, il Data Act del 23 febbraio 2022. Al riguardo è opportuno precisare che nelle recenti proposte di regolazione l’esigenza di eterogeneità di fonti non viene meno e si rinvia anche ad atti di soft law necessari per l’applicazione delle disposizioni, come i codici di condotta.

Nelle proposte europee di regolamento degli ultimi anni, oltre alla tipologia di atto, muta significativamente anche l’approccio sostanziale: si sceglie di regolare e incidere sui diversi attori in gioco e sulle geometrie di potere della dimensione digitale, individuando obblighi e responsabilità a carico dei poteri economici privati, dal momento che si intende promuovere l’innovazione, la crescita e la competitività, ma anche proteggere in modo più efficace gli utenti e i loro diritti nella dimensione digitale, istituendo un quadro di regole in materia di trasparenza e responsabilità.

Del resto garantire i diritti e le libertà nel ciberspazio costituisce la sfida del nostro tempo.

Se vogliamo provare a individuare quello che il Maestro Vittorio Frosini chiamava “l’orizzonte giuridico di Internet”, tracciando l’“ordinamento giuridico digitale” cui siamo e dovremmo essere indirizzati, emerge l’esigenza di una nuova relazione tra diritto e tecnica, capace di valorizzare la costruzione del diritto stesso come scienza che nasce per garantire certezza alle relazioni umane, attribuendo diritti e doveri, riuscendo a tutelare la persona e la società rispetto alla tecnologia.

Ubi data society, ibi ius: arrivando a innovare e adattare il noto brocardo, il governo della nostra società e della complessità profonda che la caratterizza necessita del ruolo del diritto e della forza dei diritti per riuscire a proteggere la persona e disegnare il presente e il futuro della nostra democrazia.

 

 

 

 

a cura di

Valeria Montani

 

Back To Top