skip to Main Content

Recensione di Ariella Fonsi su: “Privacy e neurodiritti. La persona al tempo delle neuroscienze”

“Privacy e neurodiritti. La persona al tempo delle neuroscienze”

recensione di

Ariella Fonsi

 

Negli ultimi anni lo sviluppo tecnologico ha conosciuto un’accelerazione esponenziale, trasformando profondamente il modello di società in cui viviamo e fornendoci delle nuove chiavi di lettura del mondo e, conseguentemente, dei modi di agire all’interno dello stesso. Come tutti i grandi cambiamenti della storia, il processo di evoluzione tecnologica ha posto numerose sfide di tipo etico-giuridiche, creando un’intricata matassa di interrogativi.

Alcuni punti di tale matassa sono stati l’oggetto del Convegno tenutosi lo scorso 28 gennaio durante la Giornata europea della privacy e organizzato dall’Autorità garante per la protezione dei dati personali, in cui i diversi relatori sono intervenuti fornendo interessanti spunti in tema di applicazione dell’intelligenza artificiale in ambito neuroscientifico. Il resoconto di tali lavori – raccolti nel volume “Privacy e neurodiritti. La persona al tempo delle neuroscienze”[1] – risiede, come evidenziato dal Presidente del Collegio, Pasquale Stanzione, nell’uso delle applicazioni neuroscientifiche, distinguendo, da un lato, quello strettamente terapeutico e, dall’altro, quello volto al potenziamento cognitivo di un soggetto sano.

Con riferimento al primo uso, una “IA curativa” contribuirebbe a ripristinare funzioni cerebrali deteriorate da malattie attualmente incurabili (si pensi all’Alzheimer) o dal normale decorso del tempo.

Appare evidente che un siffatto impiego di applicazioni neuroscientifiche costituirebbe un’ulteriore estensione, da un punto di vista giuridico, del principio di tutela della salute dell’individuo, riconosciuto ormai da tutte le carte di diritti fondamentali e dalla nostra Costituzione.

E se la risposta all’interrogativo se sia lecito o meno utilizzare l’intelligenza artificiale come mezzo per “ripristinare” la mente appare, come visto, alquanto scontata, la questione si complica laddove ci si addentri nel secondo uso.

È noto che Nietzsche ipotizzò la figura del superuomo che supera se stesso e si libera delle proprie catene: se tale possibilità discendesse da una macchina costruita dall’uomo, sarebbe eticamente corretto varcare il confine? e se sì, quali sono i limiti e le regole?

È questa la questione trattata, con approcci differenti, che spaziano dall’analisi giuridica a quella filosofica, passando per quella teologica, negli atti del Convegno.

 

 

Sviluppo antropocentrico dell’IA

Come si è detto, la questione posta alla base di discussione del volume costituisce un’intricata matassa che, per essere sbrogliata, necessita quantomeno di un punto di convergenza, un caposaldo da cui partire nelle riflessioni: quali diritti o interessi occorre garantire?

Tale punto di partenza è tracciato da Paolo Benati, nel saggio intitolato “La dignità della persona al centro dello sviluppo gentile”[2], il cui leit motiv risiede nel dialogo tra diritto, filosofia, teologia e neurotecnologie, laddove, secondo l’Autore, è necessario porre al centro dell’attenzione la persona e la sua dignità.

Se il fine della neuroenhancement è, appunto, il miglioramento dell’uomo, non si può dissentire sull’assunto che nell’indagare tali forme di innovazione occorre tenere a mente la migliore autorealizzazione dell’umano a 360 gradi.

Il rischio, altrimenti, è la creazione di uno spazio non normato e privo di quei livelli di consapevolezza etico-giuridica minimi per uno sviluppo antropocentrico di dispositivi neurotecnologici, fortemente impattanti sull’interazione umana.

Per azzardare un rimando alla cultura pop-televisiva, il pericolo è la creazione di una società distopica alla Black Mirror in cui tutto è concesso, nulla è regolato e la tecnologia prende il sopravvento sull’uomo, che, da creatore della stessa, diventa sua preda e vittima.  Meglio allora preferire un approccio alla “Io, robot” – per rimanere in tema di fiction televisive – nell’ambito del quale delineare alcune leggi di sviluppo basate sulla comprensione delle problematiche sottese allo stesso.

 

Mental privacy e tutela dei dati neuronali

Le intelligenze artificiali, comprese quelle neurali, come noto, si nutrono di dati. Il machine learning e, in particolare, il deep learning, hanno alla base ingenti quantità di informazioni date in pasto alla macchina che le elabora in maniera sempre più completa.

Sotto questo punto di vista un interessante spunto di riflessione è fornito nel contributo di Marcello Ienca (“Neurodiritti: storia di un concetto e scenari futuri”)[3], secondo il quale – nell’analizzare la validità scientifica dei dispositivi in commento – occorre soprattutto valutare le loro implicazioni in materia di privacy e sicurezza dei dati.

Detti temi, tuttavia, sono cose ben distinte. Da un lato, si parla di tutela – anche in un’ottica di cybersecurity – dei dati posti alla base dello sviluppo delle neurotecnologie, le cui logiche sono spesso difficili da rintracciare e verificare.

Dall’altro lato, poi, prende piede il tema più profondo della “privacy mentale”, ossia quell’istanza di riservatezza dell’informazione mentale che deve essere protetta da interferenze predittive e intrusive. Ed è proprio tale principio concettuale che, come riporta Ienca, ha ispirato il primo documento standard sull’innovazione responsabile delle neurotecnologie in capo al Consiglio dell’OCSE, focalizzato, tra l’altro, sui neurodiritti della privacy e delle libertà cognitive[4].

 

L’uomo è solo il suo cervello?

L’uomo non è solo il suo cervello. Questo uno dei punti – uno dei più stimolanti a modesto avviso di chi scrive – da cui parte il saggio di Giacomo Marramao[5].

L’individuo è soprattutto coscienza, intesa, per citare le parole del giudice delle leggi, come “quella relazione intima e privilegiata con l’uomo con se stesso” che “costituisce la base spirituale-culturale e il fondamento di valore etico-giuridico” e per tale motivo tutelata in quanto libertà e diritto fondamentale del singolo ai sensi dell’art. 2 della Costituzione[6].

Ed ecco che la coscienza diventa un altro elemento da salvaguardare nella ricerca del postumano, ossia quell’ente più compiuto dell’uomo o meglio l’uomo dotato di migliori capacità intellettive ed emotive. Nella chiave di lettura proposta da Marramao, pertanto, la ricerca tecnologica volta a detto miglioramento è di fatto una minaccia non soltanto per la privacy mentale di cui parla anche Ienca, ma anche per la libera formazione del pensiero secondo coscienza. In questo senso, una delle regole da seguire nella ricerca in ambito neuroscientifico dovrebbe essere, citando le parole di Stanzione, l’habeas mentem, ossia il diritto alla tutela della mente umana da manipolazioni inconsapevoli.

 

Progresso tecnologico all’insegna della rule of law

Come anticipato, le neurotecnologie pongo un crocevia di dilemmi che crescono di pari passo con lo sviluppo tecnologico e connessi, la maggior parte, all’esigenza di evitare il pericolo che il normale decorso di tale sviluppo si trasformi in una realtà contro-utopica e disumanizzante. Come fuggire a questo pericolo ce lo dice innanzitutto la scienza ma è anche vero, d’altronde, che la ricerca scientifica – come ogni attività che si estrinseca all’interno di un determinato contesto sociale – deve essere sorretta da regole di legge ben precise.

Riprendendo le conclusioni di Pietro Perlingieri, “problemi inquietanti si prospettano così al giurista per la prima volta nella storia dell’umanità e che concernono la stessa identità umana[7].

Ed invero, se anche il tema è complesso ed indubbiamente nuovo, non è certamente privo di radici a cui ancorarsi. Le fondamenta giuridiche, come sottolinea Oreste Pollicino (“Costituzionalismo, privacy e neurodiritti”), sono già presenti nelle nostre carte fondamentali e, in una certa misura, anche nella legislazione secondaria[8].

Si pensi, a livello sovranazionale, all’art. 8 della Convenzione europea dei diritti dell’uomo che prevede la tutela della vita privata da ingerenze esterne o, a livello nazionale, il citato art. 2 della Costituzione, norma ombrello per la tutela della privacy e della coscienza quali diritti fondamentali. Ma ancora, quanto alla legislazione di secondo livello, si potrebbero rintracciare forme di tutela in alcune normative di settore tra cui, primo tra tutti, il noto Regolamento UE 679/2016 che all’art. 22 disciplina le decisioni automatizzate.

Tra l’altro si noti come tale articolo, è stato già da tempo criticato da quella parte della dottrina che ne evidenzia la carenza di determinatezza laddove non menziona espressamente il diritto dell’interessato a essere informato sull’utilizzo del procedimento automatizzato: infatti, si è osservato che il diritto alla spiegazione descritto nel GDPR, oltre ad essere una previsione giuridicamente non vincolante, sembra limitarsi alla generica informazione circa l’esistenza di un procedimento informatizzato e non anche delle relative logiche[9].

 

Conclusioni

Le questioni sottese allo sviluppo neuroscientifico volto al miglioramento delle capacità intellettive e cognitive dell’uomo costituiscono, come anticipato nell’incipit della presente recensione, una matassa difficile da sbrogliare.

Il volume presenta linee di indagine e di investigazione nuove, ponendo degli interrogativi che i ricercatori e gli studiosi di etica e del diritto dovrebbero costituire dei punti fermi e guidare consapevolmente lo sviluppo tecnologico.

Consapevolezza che deve innanzitutto imperniarsi sull’assunto che, come scrive Marramao nel volume in esame, anche il più supersonico dei robot non potrà mai avere la memoria creativa del più umile degli esseri umani.

Tali riflessioni, com’è evidente, non possono che essere affrontate con un approccio fortemente interdisciplinare e, verrebbe da dire, giuridicamente etico, tale da guidare – chiudendo con le parole del Prof. Stanzione – la scienza  in un percorso che “restituendo fisiologia nella patologia” sappia “rendere la vita più umana e persino più giusta”.

 

 

 

 

[1] Il volume è disponibile online al seguente URL: https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9697621

[2] “La dignità della persona al centro dello sviluppo gentile”, pp. 21 – 34.

[3] “Neurodiritti: storia di un concetto e scenari futuri”, pp. 35 – 54.

[4] Raccomandazione sull’Innovazione Responsabile nelle Neurotecnologie, OCSE, 2019.

[5] “Quale futuro per il Post-umano? L’Umano”, pp. 55 – 68.

[6] Corte Costituzionale, sentenza n. 467/1991.

[7] Cfr. P. Perlingieri, “Note sul “potenziamento cognitivo”, p. 90.

[8] “Costituzionalismo, privacy e neurodiritti”, pp 69 – 81.

[9] S. Wachter, B. Mittelstadt, L. Floridi, Why a Right to Explanation of Automated Decision- Making Does Not Exist in the General Data Protection Regulation, 2016.

Back To Top