C’è già chi parla di sentenza storica. E in effetti, quella della Corte di Giustizia…
Intervista alla Prof.ssa Daniela Messina. “La tutela della dignità nell’era digitale. Prospettive e insidie tra protezione dei dati, diritto all’oblio e Intelligenza Artificiale”
Daniela Messina, Professore a contratto di Diritto dell’informazione e dell’informatica presso l’Università degli Studi di Napoli “Parthenope”. Dottore di ricerca in “Pubblico e privato nel diritto dell’impresa”, le sue principali linee di ricerca riguardano i diritti digitali, la privacy e la tutela dei dati personali, l’intelligenza artificiale, nonché i servizi di media audiovisivi. In passato è stata Blue Book Trainee presso la Commissione Europea nella direzione DG Connect – Digital
Single Market – Communication Networks, Content and Technology e praticante presso l’Autorità per le Garanzie nelle Comunicazioni (AGCOM), Direzione servizi media.
La Prof.ssa Daniela Messina
Professoressa Daniela Messina, nel suo volume “La tutela della dignità nell’era digitale“, quali sono le principali sfide che vengono affrontate riguardo alla protezione dei dati personali?
L’individuo è attualmente al centro di un vorticoso fluire di dati, informazioni e decisioni “intelligenti”, frutto, come è noto, di un intenso processo di datificazione della realtà che è in grado di trasformare gran parte dell’esperienza umana in piccoli frammenti informativi facilmente aggregabili e analizzabili. Tale fenomeno, nonostante i notevoli vantaggi apportati in termini di ottimizzazione della produzione ed erogazione di servizi e di prodotti, ha svelato nel tempo anche una serie di rilevanti criticità connesse alla tutela della persona e al naturale sviluppo della sua identità. In un panorama sempre più digitalizzato, infatti, l’individuo si trova al limite tra due dimensioni, una fisica, l’altra digitale, che vengono ad integrarsi vicendevolmente favorendo la creazione di uno spazio ibrido nel quale la persona fisica, destinataria nel tempo di tutela mediante il riconoscimento di diritti e libertà fondamentali da parte degli ordinamenti giuridici, sempre più spesso si “scontra” con una corporeità digitale che emerge quale sterile sommatoria dei dati personali presenti nel nuovo ecosistema. Ne deriva una tensione che rischia di minare, con l’incedere incalzante del progresso tecnologico, uno dei valori fondamentali e fondanti l’architettura regolativa delle società democratiche: la dignità umana, intesa quale espressione di una sfera intangibile di libera determinazione esistenziale che definisce la persona nella sua più profonda essenza di essere umano, libero di scegliere e di agire.
Sono sempre più frequenti, infatti, i casi che dimostrano come l’utilizzo degli strumenti digitali, in assenza di specifiche regole ispirate ai principi e ai valori consacrati nelle costituzioni moderne, siano in grado influenzare, anche subdolamente, le decisioni dell’individuo ovvero di oltrepassare i limiti posti a tutela della sua riservatezza; di alterare il naturale avvicendarsi tra ricordo e oblio o addirittura di condizionare il consapevole esercizio di diritti e libertà fondamentali.
Si tratta di una molteplicità di insidie, spesso non manifestamente evidenti, che impongono di individuare un idoneo punto di equilibrio tra il significato economico espresso dai dati, fonte inesauribile di crescita per le moderne società, e la tutela dei valori e dei principi che costituiscono il sostrato degli ordinamenti democratici.
Un fondamentale passo in avanti in tal senso, come è noto, è stato compiuto con l’adozione del Regolamento (UE) 2016/679 che ha introdotto un modello di tutela finalizzato a riportare il dato personale nella sfera di controllo e di determinazione dell’individuo. Tuttavia, lo sviluppo di tecnologie sempre più avanzate e il pervasivo sviluppo di strumenti di intelligenza artificiale impongono oggi la determinazione di un più ampio approccio normativo che sia in grado di creare un modello regolativo olistico che guardi alla trasformazione digitale ad ampio spettro. In tale prospettiva, la vera sfida del legislatore nell’era digitale consiste nella definizione di uno scenario regolativo che consenta al singolo di acquisire il pieno controllo non solo del singolo dato personale, ma della intera sua individualità fisica e digitale, in modo che sia sempre libero di scegliere autonomamente e consapevolmente in presenza di tecnologie che operino a supporto e mai a danno della sua persona e della sua dignità.
Nella sua opera, “La tutela della dignità nell’era digitale”, come viene trattato il tema del diritto all’oblio e le implicazioni per la tutela della privacy e della dignità umana?
Il tempo costituisce da sempre un fattore determinante nel percorso evolutivo dell’identità dell’individuo e, di riflesso, della società in cui egli vive e si relaziona quotidianamente.
Con il suo ineluttabile scorrere, esso scandisce le stagioni dell’esistenza umana e della collettività di appartenenza, favorendo il necessario alternarsi tra memoria e oblio; tra esperienze da ricordare ed eventi da dimenticare, definendo “ciò che l’individuo è” in un determinato momento della sua vita e gettando le basi su cui costruire il proprio cammino futuro.
Tale dinamico agire, tuttavia, appare oggi sempre più insidiato da una evoluzione tecnologica incessante, che negli anni ha modificato profondamente il tradizionale rapporto tra ricordo e dimenticanza, mediante la diffusione, dapprima, dei mezzi di comunicazione di massa e, successivamente, di dispositivi digitali caratterizzati da capacità di immagazzinamento e di memorizzazione delle informazioni mai raggiunte prima nella storia dell’uomo.
In uno scenario così complesso, contraddistinto da una potenziale imperitura capacità di ricordare, l’identità dell’individuo rischia, infatti, di rimanere “imbrigliata” in uno spazio senza tempo, preda di informazioni provenienti da un passato che, sebbene non più di interesse per la collettività, dispongono ora dei mezzi e degli strumenti per riproporsi continuamente.
È in tale prospettiva che il diritto all’oblio assume oggi un ruolo estremamente importante nell’era digitale, costituendo un tassello fondamentale nel più ampio mosaico di tutela della dignità dell’individuo. Se, infatti, l’identità personale, oggetto di garanzia nelle costituzioni democratiche, è espressione di un percorso evolutivo che si svolge nel tempo, nutrendosi dell’insieme di relazioni, di decisioni e di esperienze che l’individuo realizza durante la propria esistenza, è evidente che la stessa non sopporta di essere limitata e travisata in un panorama che, forte del proprio potere di elaborazione e di memorizzazione delle informazioni, esalta il dato “acerbo”, temporalmente decontestualizzato, per un suo veloce sfruttamento.
La possibilità di autodeterminarsi autonomamente in una società dominata dall’elaborazione potenzialmente perenne dei dati personali presuppone, quindi, l’effettiva capacità di intervenire sulla rappresentazione del proprio sé mediante strumenti di protezione che consentano di disporre di una corporeità digitale in armonia con quella attuale e reale, lontana da alterazioni dovute a un impiego non corretto, non aggiornato o addirittura pernicioso delle proprie informazioni personali.
Perché ciò sia possibile è necessario definire un sistema di regole che siano in grado di ristabilire il naturale ruolo del tempo, restituendo all’individuo, ancora una volta, un potere effettivo sui propri dati – o meglio, sui propri ricordi – in modo che possa guardare al passato come una dimensione da ricondurre nei territori della propria riservatezza.
Tale obiettivo, estremamente importante per le società democratiche, risulta tuttavia ancora lontano dall’essere pienamente raggiunto e ulteriormente ostacolo dal sempre più esteso processo digitalizzazione.
Il lungo iter dottrinale e giurisprudenziale in materia che è ancora in corso di svolgimento (si pensi alle più recenti sentenze delle corti nazionali e sovranazionali), le molteplici sfumature interpretative che si sono susseguite nel tempo e, da ultimo, i recenti sviluppi in Italia con l’attuale dibattito parlamentare sull’oblio oncologico, sono tutte testimonianza della difficoltà di garantire pienamente l’oblio nell’ecosistema digitale e, in particolare, della complessità di definire esattamente i confini e i limiti di una situazione giuridica che implica un non facile bilanciamento tra diritti fondamentali, in primis quello connesso alla libertà di informazione nelle società tecnologicamente avanzante. Tuttavia, sono anche la dimostrazione più trasparente dell’imprescindibilità del riconoscimento di tale diritto nell’era digitale e dello stretto legame che insiste tra questo e la tutela della dignità umana, a dimostrazione che solo ripristinando il tradizionale rapporto con il passato, l’individuo ha la possibilità di volgere effettivamente il proprio sguardo verso il futuro, libero dal peso di eventi trascorsi che non risultano più significativi se non per la propria persona.
A Suo avviso nell’era digitale, come viene affrontata la differenza tra il diritto all’oblio dei dati personali e il diritto all’oblio dei fatti nel contesto della tutela della dignità? Ci sono sfide specifiche nel definire e applicare tali diritti in un ambiente digitale in continua evoluzione?
È opinione diffusa che la famosa sentenza Google Spain (causa C-131/12) abbia rappresentato un importante crocevia nel percorso di riconoscimento giurisprudenziale del diritto all’oblio e, parimenti, del suo primo effettivo riconoscimento normativo a livello europeo ad opera del Regolamento (UE) 2016/679. Tuttavia, a ben vedere, pur apportando un contributo fondamentale al dibattito in materia, la sentenza in questione, piuttosto che ampliare i confini applicativi di tale situazione giuridica meritevole di tutela, ha contribuito ad evidenziare una diversa, seppur rilevante, criticità ai fini della tutela della dignità dell’individuo nel già complesso scenario digitale.
Deindicizzare, infatti, non significa necessariamente garantire il diritto all’oblio.
Se quest’ultimo si connette all’esigenza di impedire che la riproposizione di vicende passate arrechi un danno all’identità attuale dell’individuo una volta che il relativo intento informativo è stato completamente assolto e l’interesse della collettività sopito, la richiesta di eliminazione dei collegamenti ipertestuali che riportano ad informazioni personali si sostanzia, piuttosto, nella necessità di una vera e proprio “removal of visibility” all’interno dello spazio imperituro dello scenario digitale. La deindicizzazione, infatti, consente di spezzare il legame creato dal motore di ricerca tra persona e dato, ma non determina necessariamente la rimozione – o meglio, l’archiviazione – dell’informazione lesiva che continua, invece, a fluire vorticosamente nel mare magnum della Rete, libera di riproporsi in ogni momento a danno dell’identità attuale dell’individuo.
Tale distinzione assume particolare rilievo ai fini della tutela della dignità nell’era digitale. La possibilità che informazioni vetuste o decontestualizzati continuino a circolare nonostante un intervento di delisting incide sulla coerente proiezione dell’identità dell’individuo con il rischio di limitarne l’esercizio di diritti e libertà fondamentali e, quindi, ancora una volta di influenzarne la capacità di determinarsi autonomamente nelle moderne società tecnologicamente avanzate.
Tuttavia, se il diritto all’oblio – o meglio, l’oblio dei fatti – consente una più immediata tutela della persona riportando l’informazione nota, ma non più di interesse per la collettività, nella sua sfera privata, la deindicizzazione o “oblio dei dati” garantisce, invece, una tutela diversa perché connessa alla volontà dell’individuo di sottrarre quel dato specifico, in quanto falso, non corretto o non attuale, all’immagine che egli vuole dare di sé alla società, recidendo di fatto la connessione creata automaticamente dai motori di ricerca tra la propria identità e quella singola informazione.
Una tutela, inoltre, che può risultare sovente parziale perché il dato contestato, qualunque sia la sua natura, non viene “estirpato” dalla fonte, ma solo oscurata alla vista dei naviganti, rimanendo comunque reperibile con forme alternative di ricerca in Rete.
Questa, tuttavia, non è l’unica distinzione che intercorre tra le due fattispecie di oblio.
Come indicato dall’art. 17 del Regolamento europeo 2016/679 e ribadito nelle Linee Guida n. 5/2019 formulate dall’European Data Protection Board, l’effettiva rimozione dei collegamenti ipertestuali prevede il coinvolgimento diretto di una specifica categoria di operatori digitali, i motori di ricerca, a cui è affidato il compito di decidere se accogliere la richiesta di cancellazione nel rispetto dei criteri stabiliti dal par. 1 del suddetto articolo. Una decisione che, come specificato dalla CGUE nella causa C-136/17, «prevede quindi espressamente il requisito del bilanciamento tra, da un lato, i diritti fondamentali al rispetto della vita privata e alla protezione dei dati personali, sanciti agli articoli 7 e 8 della Carta e, d’altro lato, il diritto fondamentale alla libertà di informazione, garantito dall’articolo 11 della Carta.»
E’ evidente che, fermo restando la necessità di intervenire celermente, soprattutto in un contesto ad alta “viralità” informativa, la decisione di affidare a un operatore privato una valutazione che implica una delicata attività di bilanciamento tra diritti fondamentali, in assenza di un previo intervento di un organo giurisdizionale ovvero di una competente autorità indipendente in materia, rischia di favorire situazioni di composizione dei conflitti pericolosamente orientati verso interessi specifici e divergenti rispetto a quelli avanzati dalla collettività e dal singolo. Tutto questo all’interno di un mercato, come appunto quello dei motori di ricerca, fortemente concentrato e il cui ruolo nella diffusione di informazioni e di dati assume sempre più rilievo dal momento che tali piattaforme agiscono nella società digitale come vere e proprie “porte di accesso alla conoscenza”.
Da qui la necessità di ridimensionare in tale ambito il loro intervento, sicuramente necessario da un punto di vista tecnico, ma non sufficiente e potenzialmente pericoloso da un punto di vista della tutela dell’individuo se realizzato in assenza di un più significativo coinvolgimento dei pubblici poteri investiti del precipuo compito di orientare tali decisioni nel rispetto di principi e di valori fondamentali e di riportare saldamente l’attività di bilanciamento tra diritti confliggenti nella sua sede naturale e primigenia che insiste nella dimensione pubblica.
Nel contesto del libro “La tutela della dignità nell’era digitale”, quale approccio viene proposto riguardo all’utilizzo dell’Intelligenza Artificiale e quali sono le considerazioni etiche e giuridiche affrontate? Potrebbe illustrarci le prospettive che emergono riguardo alla tutela della dignità umana in un mondo sempre più dominato dalla tecnologia?
Il contributo più rilevante apportato dall’intelligenza artificiale, nella sua veste più evoluta, consiste nella capacità di individuare, in tempi estremamente ridotti, relazioni sottese e ignote tra gli innumerevoli dati che sono oggi a disposizione, “trasformandole” in informazioni significative per la collettività. Si tratta di correlazioni ricche di significato che l’individuo, anche quello più esperto, non sarebbe mai in grado di cogliere data la naturale limitatezza delle sue capacità di calcolo e di comprensione.
Tuttavia, tale straordinaria abilità inferenziale, che consente di scoprire nuovi e inaspettati percorsi di conoscenza, se da un lato assume un ruolo fondamentale per lo sviluppo economico, sociale e culturale delle odierne società, dall’altro mostra una serie di rilevanti criticità per la tutela della dignità nell’era digitale.
La diffusione di attività di profilazione sempre più accurate anche di carattere predittivo, i fenomeni di nudging algoritmico, nonché la creazione di epistemic bubbles ed eco-chambers, sono tutti espressione di un “pensiero artificiale” che ha dimostrato nel tempo la capacità di influire, spesso subdolamente, sul percorso evolutivo dell’individuo, determinando situazioni discriminatorie o limitanti l’esercizio di diritti e di libertà fondamentali. In tale complesso scenario, la dignità dell’individuo rischia di apparire svilita e mortificata, costantemente insidiata dall’utilizzo sempre più diffuso delle nuove tecnologie.
Da qui la necessità di indirizzare lo sviluppo di questi nuovi strumenti verso un percorso realmente human-centric che consenta di sostenere il promettente sviluppo tecnologico senza mettere mai in crisi quel quadro di principi e di valori che consentono all’individuo di svolgere liberamente e consapevolmente la propria esistenza, lontano da condizionamenti inammissibili all’interno di una società democraticamente orientata.
Tale sfida, come è noto, è anche al centro dell’ampio quadro normativo in via di definizione a livello europeo. Non solo la tanto discussa proposta di regolamento in materia di IA ancora in corso di approvazione, ma allargando l’orizzonte di analisi all’intero scenario digitale, tutti i nuovi atti normativi in materia – dal Digital Service Act al Digital Market Act, passando per il Protocollo che nel 2018 è intervenuto a modificare la Convenzione n. 108 sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale fino alla Dichiarazione europea sui diritti e i principi digitali per il decennio digitale del dicembre 2022 – contemplano più o meno marcatamente la necessità di mettere al centro della rivoluzione tecnologica l’individuo, tutelandone l’autonomia decisionale e la consapevole gestione dei suoi dati personali. In tale prospettiva, il quadro europeo in fieri, così come è accaduto in passato con le costituzioni moderne di inizio Novecento, sembra esaltare nuovamente il valore fondamentale della dignità umana, ponendola come principio ispiratore dell’intero sistema di norme destinato a disciplinare lo sviluppo e la diffusione delle nuove tecnologie.
Eppure, nonostante ciò, l’attuale percorso normativo verso il conseguimento di tale importante obiettivo sembra oggi svilupparsi lungo un terreno piuttosto accidentato.
Le nuove regole digitali risultano, infatti, ancora eccessivamente ispirate a logiche di mercato che lasciano, in alcuni casi, l’individuo privo di strumenti effettivi di tutela (si pensi, ad esempio, alla proposta di regolamento sull’IA) e in altri, tendono a rafforzare proprio il potere delle grandi società digitali alle quali viene di fatto affidata, almeno in prima istanza, la concreta tutela dei diritti, dietro la paventata esigenza di un celere intervento in uno scenario complesso e in continua evoluzione.
Dinanzi a tali rilevanti criticità, l’analisi condotta nel testo evidenzia, invece, la necessità di un immediato cambiamento di rotta delle attuali dinamiche regolative alle quali è richiesto di liberarsi completamente da una visione “mercato-centrica” del fenomeno tecnologico per dirigersi verso un agire più decisamente antropocentrico che trovi nuovamente e saldamente nei poteri pubblici il suo approdo più sicuro.
In presenza di una trasformazione sicuramente affascinante, ma potenzialmente rischiosa per il suo divenire, lo Stato, infatti, è chiamato ad acquisire su di sé nuovamente e pienamente quel compito costituzionalmente orientato destinato a rimuovere gli ostacoli, ora di rango tecnologico, che si frappongono lungo il cammino tutelato del pieno sviluppo della persona e di riflesso della sua comunità di appartenenza. Questo impone un ridimensionamento dei poteri di intervento che sembrano essere attribuiti attualmente con una eccessiva facilità agli operatori privati, trovando in questi ultimi solo un valido supporto ai fini di un’applicazione efficace e pratica del mosaico normativo in via di definizione, ma sottraendo ad essi un’attività di bilanciamento tra diritti confliggenti che non può che essere affidata alla sola dimensione pubblica. Tale collaborazione fattiva, connessa a un pieno recupero di un potere di intervento che è immanentemente connesso allo Stato di diritto e il cui dispiegarsi mal sopporta di essere oggetto della discrezionalità di poteri privati, potrà contribuire significativamente a riportare il fenomeno tecnologico lungo i binari evolutivi delle società democraticamente avanzate e costituire la cifra del “modello europeo” di regolazione della trasformazione digitale. Un modello che, nel necessario rispetto delle specificità espresse dalle diverse anime nazionali, dovrà essere in grado di garantire un approccio regolativo in cui la tutela della dignità umana assuma concretamente il ruolo di limite invalicabile: limite oltre il quale l’evoluzione tecnologica, anche quella più promettente, non dovrà e potrà mai spingersi.
a cura di
Valeria Montani