skip to Main Content

Intervista all’Avvocato dello Stato, Gaetana Natale. Algoritmi e neuroscienze

Internet Tra Libertà Ed Uguaglianza

Gaetana Natale, premiata ogni anno durante il periodo liceale come migliore studentessa, si è laureata presso l’Università degli Studi di Salerno con votazione finale di 110/110 con lode e plauso accademico, superando 28 esami, 7 in più rispetto ai 21 previsti, ed ha conseguito un dottorato di ricerca in Diritto Privato Comparato con perfezionamento a Cambridge.

È stata nominata Procuratore dello Stato nell’anno 1999 e ha prestato servizio in tale qualità presso l’Avvocatura Distrettuale dello Stato di Reggio Calabria e Napoli.

Dal 2008 è in servizio presso l’Avvocatura Generale dello Stato e attualmente ricopre il ruolo di Avvocato dello Stato, preposto alla difesa delle Istituzioni Pubbliche innanzi alle giurisdizioni superiori. Nello specifico, difende in giudizio il Ministero della Salute, l’Istituto Superiore di Sanità, l’AIFA, l’AGENAS, il Ministero della Difesa, il Ministero dell’Interno e il Ministero degli Affari Esteri e della Cooperazione Internazionale. In particolare, segue la difesa del Garante della Privacy innanzi alla Corte di Giustizia dell’Unione Europea in materia di Data Protection e di Consistency Mechanism a livello europeo.

Nominata Cavaliere della Repubblica Italiana dal Presidente della Repubblica Sergio Mattarella per l’alta professionalità e il costante impegno profuso a tutela dell’interesse dello Stato e della collettività, dal 2017 è componente dell’Osservatorio di Roma sulla Giustizia Civile, dove svolge attività di collaborazione presso la Corte Suprema di Cassazione tra magistrati e Avvocati dello Stato, volta alla realizzazione della cosiddetta “giurisdizione condivisa”.

Presidente di Commissione di concorso presso l’AIFA ed ENEA, dal 2021 al 2023 è stata Consigliere Giuridico del Presidente dell’Autorità Garante per la Protezione dei Dati Personali. È relatrice in numerosi convegni presso il Consiglio di Stato, la Corte dei Conti e l’Avvocatura Generale dello Stato sul nuovo codice dei contratti pubblici, con riferimento al diritto di accesso, alla trasparenza, alla tutela della privacy e ai nuovi strumenti ADR (Alternative Dispute Resolution). Dal 2019 al 2021 è stata Consigliere Giuridico presso il Gabinetto del Ministero del Lavoro e delle Politiche Sociali e presso il Ministero dello Sviluppo Economico

Attualmente ricopre l’incarico di Presidente del Collegio dei Revisori dei Conti della Scuola Superiore Meridionale e professore a contratto di Sistemi Giuridici Comparati e docente presso la European School of Economics.

 

Avvocato dello Stato, Gaetana Natale

 

In questa intervista di approfondimento, esploreremo con l’Avvocato dello Stato Gaetana Natale i principali spunti emersi dal Suo intervento Algoritmi e neuroscienze, curato per l’evento Stati generali del Diritto di Internet e della intelligenza artificiale, analizzando le sfide giuridiche poste dall’uso crescente dell’IA nei processi decisionali pubblici e privati e il ruolo che il diritto può (e deve) svolgere per garantire un equilibrio tra innovazione e tutela dei diritti.

 

Lei ha paragonato l’Intelligenza Artificiale a un “nuovo Galileo Galilei”, sottolineando come essa incida sull’articolazione del pensiero umano e sull’autonomia decisionale. In che modo gli algoritmi di machine learning e le reti neurali stanno modificando il rapporto tra pensiero logico-deduttivo e inferenza statistica?

Gli algoritmi, intesi come if this than that, ossia come sequenza di passaggi elementari in un tempo finito, non sono solo dei meri tool, ossia mezzi di supporto additivo, ma incidono sulla formazione del pensiero umano. La backpropagation di Geoffrey Hinton, premio Nobel per la fisica 2024 relativamente alla fisica quantistica, hanno dimostrato con le reti neurali che i neurolink possono leggere il pensiero umano, influenzarlo e realizzare anche il c.d. Brain Enhancement. Se queste scoperte avranno notevoli applicazioni in medicina per prevenire e curare malattie neurodegenerative come l’Alzheimer o il morbo di Parkinson, sul piano della libertà del pensiero dobbiamo essere consapevoli che i nostri processi cerebrali potrebbero essere influenzati dai c.d. Sistemi di raccomandazione e dagli algoritmi di rinforzo che realizzano la c.d. profilazione. Albert Einstein parlava di entanglement, a spooky action at a distance, ossia di intreccio di dati a distanza che può  influenzare la determinazione umana. E’ il binomio servo-padrone di cui parlava Hegel nella Fenomenologia dello Spirito.

 

Nel Suo intervento ha evidenziato il rischio che gli algoritmi entrino nella “sfera intima” della persona, influenzando la predittività delle decisioni individuali. Quali sono, a Suo avviso, le implicazioni più rilevanti per la libertà cognitiva e l’autodeterminazione dell’individuo?

Daniel Kahneman parla di pensiero lento e di pensiero veloce. Gli algoritmi sono i pensieri veloci che danno origine ad informazione sulla base dell’inferenza, ossia sulla base di una logica statistica bayesiana, ma non in base al principio di causalità. L’intelligenza artificiale dà risultati verosimili, ma non veri, che richiedono sempre l’human oversight, ossia la supervisione umana. Gli algoritmi, in altre parole, offrono informazione, ma non conoscenza: tale conoscenza può essere irrelata, ma non correlata. La tendenza di affidarsi continuamente alla Intelligenza Artificiale, che Hoffman definisce Intelligenza Aumentata, può portare alla c.d. automation bias che non distingue il pensiero classificatorio dal pensiero logico-deduttivo di cui parla Kant nella Critica alla ragion pura. Il pericolo è c.d. effetto dopamina della macchina che si declina in digital addiction, ossia dipendenza dal digitale, pruning, ossia potatura neurale negli adolescenti, il cui cervello è dotato di maggiore plasticità. Tali effetti sono presenti anche negli adulti in base agli studi di epigenetica di Eric Kandel.  La parola concetto deriva dal latino cum capio, ossia prendo insieme i dati e realizzo il conceptus, ossia il concetto. Se, però, la raccolta di dati e la loro elaborazione è fatta continuamente dall’Intelligenza Artificiale, l’uomo perde la capacità di elaborazione concettuale e di memorizzazione dei pensieri critici: memoria minuitur nisi eam exerceas.

 

 

Ha parlato dell’importanza dell’“habeas mentem” e della necessità di un quadro giuridico per tutelare i neurodiritti. Quali strumenti normativi ritiene più urgenti per prevenire derive di neurodeterminismo e garantire che l’IA rispetti la dignità umana?

Per realizzare l’”habeas mentem” è necessaria una legislazione future proof, a prova di futuro data la velocità dello sviluppo tecnologico, che si realizzi non solo attraverso le sandbox regolatorie, ma anche attraverso la tecnica del c.d. “Foresight”, ossia del preemptive remedy, ossia prevenire situazioni critiche future. Ne ho parlato nella mia ultima monografia dal titolo “Neuroscienza, algoritmi ed Intelligenza Artificiale”, anno 2024. Che tipo di regolazione: etero-regolazione, co-regolazione o self-regulation? Io credo che al di là della regolazione giuridica occorra un livello alto di awareness, ossia di consapevolezza realizzata attraverso la c.d. paideia digitale, partendo dalla formazione nelle scuole attraverso l’insegnamento dei principi base di coding e di pensiero computazionale che in Estonia si insegna addirittura nelle scuole elementari. Questo non vuol dire snaturare la nostra formazione umanistica, ma significa realizzare il c.d. umanesimo digitale con una sintesi costruttiva tra tecne ed episteme, tra linguaggio tecnologico e linguaggio giuridico.

 

Ha menzionato il rischio di un’intelligenza artificiale sempre meno trasparente e autonoma nel prendere decisioni. Come si può bilanciare l’innovazione tecnologica con la responsabilità giuridica, evitando che l’IA diventi una “black box” fuori dal controllo umano?

L’explainability, il right to explanation, il Diritto alla spiegazione del codice sorgente degli algoritmi , la c.d. accountability e l’art.22 del GDPR ( il diritto alla non esclusività della decisione algoritmica) sono  incompatibili con la black box: gli stessi ingegneri informatici affermano che il codice sorgente, ossia un codice alfanumerico indecifrabile resta sempre oscuro agli stessi programmatori. Questo perché l’intelligenza artificiale di tipo generativo è un’intelligenza spontaneus, ossia un’intelligenza che “impara ad imparare” ed evolve indipendentemente da chi l’ha programmata, da chi l’ha addestrata con i dati e i relativi prompt e pre-processing e da chi la utilizza. Le sentenze del CDS e della Cassazione individuano la tutela del cittadino nell’accesso al codice sorgente: ma chi di noi sa leggerlo ed interpretarlo con tutti i relativi problemi relativi alla proprietà industriale? Si ricorderà il noto caso Loomis. Proprio per tale ragione l’art.30 del Nuovo Codice dei Contratti pubblici Dlgs 36/2023 precisa che la tutela si realizza non solo attraverso l’accesso al codice sorgente, ma a tutti gli altri elementi ed informazioni che concorrono alla formazione della logica algoritmica. Proprio l’imprevedibilità dello sviluppo dell’Intelligenza Artificiale generativa comporta la difficoltà di individuazione dei centri di imputazione di responsabilità in caso di danni: la théorie de l’imprévisio francese, la doctrine of frustration inglese, la categoria civilistica della responsabilità oggettiva ex art. 2050 c.c., la responsabilità americana pre-emption per quota di mercato sono attualmente invocate dai giuristi per definire una concettualizzazione giuridica di tale tipo di tecnologia. Si parla di datificazione della conoscenza e di tecnificazione dei principi, delle c.d. model rules.

 

Secondo Lei, quali competenze dovrà  sviluppare il giurista del futuro per affrontare le sfide poste dall’IA? La regolazione attuale, in particolare l’AI Act europeo, è adeguata a cogliere la portata del cambiamento che l’IA sta introducendo nel pensiero e nella società?

Il giurista del futuro dovrà sviluppare delle competenze trasversali, essere coinvolto nella fase di implementazione dei software, essere in grado di leggere e controllare i protocolli informatici dialogando con gli ingegneri informatici per verificare , oltre alla presenza di clausole di salvaguardia nei relativi contratti di fornitura, i sistemi di remediation e di disaster recovery in caso di attacchi informatici DDoS o zero-day che possono compromettere i dati di strutture strategiche, come quelle relativi alle  Aziende Sanitarie, alla Difesa,Trasporti.

Il Regolamento europeo AI Act incentrato sul c.d. risk assessment , ossia sulla categoria del rischio, è certamente un passo in avanti, ma in realtà è stato definito il regolamento delle certificazioni e della sicurezza delle metriche, ma non affronta il problema dell’individuazione dei centri di responsabilità. Si dice USA innovate, Cina replicate e UE regulate. La regolazione europea non è sufficiente a contrastare il grande potere privato delle piattaforme che attualmente si presentano come i nuovi Stati digitali con un Pil superiore agli stessi Stati Sovrani. Dei 27.000 satelliti che girano attualmente intorno alla terra, più di 7000 sono di Elon Musk. L’Intelligenza Artificiale si profila come un nuovo elemento di equilibrio geopolitico e la sua regolazione richiede un empirical and global approach, ossia un approccio empirico e globale.

 

 

 

a cura di Valeria Montani

Back To Top