skip to Main Content

Intervista alla Prof.ssa Giovanna De Minico. “L’amministrazione digitale. Quotidiana efficienza e intelligenza delle scelte”

In merito al recente convegno internazionale “L’amministrazione digitale. Quotidiana efficienza e intelligenza delle scelte” la redazione di DIMT ha intervistato la curatrice, la Prof.ssa Giovanna De Minico.

 

Giovanna De Minico*, Professoressa ordinaria Diritto costituzionale, Università Federico II. Nominata dall’Accademia dei Lincei “invitato permanente” per le questioni regolatorie Covid 19 dal 2020. Chair del Workshop #33 “The Constitutional Status of the Private Internet Authorities before the New Public Soveregnity”, vinto su procedura concorsuale internazionale, all’interno del 11th the World Congress of Constitutional Law della “International Association of Constitutional Law” Dicembre 2022 Joannesburg.

 

La Prof.ssa Giovanna De Minico

 

Come nasce l’evento “L’amministrazione digitale. Quotidiana efficienza e intelligenza delle scelte” e quali le sue tematiche?

Nasce da un’intuizione: la digitalizzazione non è una rivoluzione in corso perché non cestina la nostra storia politico-istituzionale, la sola in grado di indicare al legislatore gli assi portanti del processo tecnologico. Il policy maker non scrive il progetto futuro di amministrazione su una lavagna bianca, ma entro uno spazio delimitato da valori e principi, che compone la nostra identità costituzionale, come tale capace di attirare a sé anche la domanda di innovazione.

Escluso che vi sia un elemento di rottura della digitalizzazione rispetto all’architettura ordinamentale, definiamola in positivo. Siamo dinanzi a un movimento che estende la tensione verso l’efficienza e la standardizzazione dell’azione dei privati al soggetto pubblico, imponendogli modi di essere e di operare inediti e innovativi rispetto a quelli tradizionali, ma pur sempre in continuità con gli imperativi costituzionali (artt. 3 e 97 Cost.) dell’uguaglianza, della buona amministrazione e dell’imparzialità, che continuano a rappresentare i vertici di questo ideale triangolo amministrativo, pur in un  mutato contesto tecnologico.

L’amministrazione digitale, dismesso l’autoritarismo decisionale, l’antagonismo nei confronti del cittadino, il bizantinismo di facciata, si presenta come una materia informe, pronta a dimensioni e funzioni inedite in ragione delle pressioni alle quali è sottoposta. Una forza centrifuga la spinge fuori dai confini pubblici e la avvicina ai modelli più prossimi al diritto privato. Pertanto, l’amministrazione dovrà diventare asciutta nel procedere, attenta all’equilibrio costi-benefici, sensibile al dialogo con gli amministrati; un’altra forza in compensazione della prima la riconduce però alla sua missione originaria. Il suo compito, non diversamente da quello degli altri poteri, si risolve nel sostanziare la democraticità dell’ordinamento di contenuto, peso e misura. Dunque, per l’amministrazione superati i confini dello ius privatorum rimane intatta la sua missione: colmare le distanze sociali (art. 3, co. 2, Cost.), concorrere a rendere effettiva la partecipazione degli amministrati ai processi politico-decisionali qualunque sia il terreno di gioco, materiale o virtuale.

La prova è offerta dal PNRR, che ricorre all’innovazione digitale e persino a un ministero dedicato per attendere a un preciso compito politico. Il piano di ripresa ha la consapevolezza che il progresso scientifico possa essere utilmente impiegato come leva per conseguire con effetto moltiplicativo l’inclusione sostanziale, cioè aiutare Donne, Giovani e Territori a ridurre le distanze che li separano dai più fortunati. Il PNRR tratteggia con chiarezza il corretto rapporto tra tecnica e politica (volendo, un mio lavoro Il Piano nazionale di ripresa e resilienza. Una terra promessa sul tema, in Costituzionalismo.it, 1/2021) come la relazione di accessorietà dei mezzi ai fini richiede. Alla politica spetta la scelta del bene ultimo, alla tecnica la sua fedele attuazione; il piano nazionale identifica questo bene supremo nell’uguaglianza sostanziale, che al tempo di Internet trova nella borsa dell’innovazione digitale gli attrezzi utili al suo compiersi. Così il ricorso alle norme asimmetriche in bonam partem può servire a spostare risorse tecnologiche, capacità digitali e flussi economici da chi ha verso chi non ha per allineare gli individui ai medesimi blocchi di partenza.

 

 

Potrebbe approfondire con noi il Suo intervento “Uguaglianza, algoritmo e potere pubblico”?

Partirò da una domanda: in quali mani affidare l’intelligenza artificiale, espressione evoluta della tecnica?

  1. a) Se la rimettiamo al decisore politico, questi tenderà a orientarla verso il Common good, sempre che si tratti di uno Stato sufficientemente democratico con un legislatore adeguatamente rappresentativo del pluralismo politico elettorale.
  2. b) Se invece scegliamo i privati, la tecnica subirà un’inevitabile torsione egoistica e il Common good verrà realizzato se e nella misura in cui dovesse coincidere con gli interessi privati delle Autorità della rete (F.B., Google et alii).

Qualche esempio può servire a rendere visivo quanto detto.

Le piattaforme dedicate alla consegna di oggetti tramite i rider usano algoritmi per gestire la relazione lavorativa: dalla nascita fino alla cessazione del rapporto. Ebbene, in questo caso l’intelligenza meccanica ha fatto in mille pezzi lo Statuto dei lavoratori, piegando ogni issue agli interessi esclusivi del datore con pregiudizio dei diritti dei rider. Da qui l’intenzione del Governo di riallineare le piattaforme allo Statuto (il d.d.l. in oggetto è ancora in via di elaborazione) presumendo la natura subordinata della relazione intersoggettiva, ma con avarizia di prescrizioni sugli algoritmi, che invece sono la causa prima dei bias ai rider. Infatti, il Governo non impone il loro disegno ex ante secondo parametri di costituzionalità, ma si limita a riconoscere ai rider il diritto di essere informati della loro esistenza e solo in parte della logica di funzionamento.

Il secondo esempio è offerto dai codici elettorali di F.B., che con norme di diritto debole hanno minuziosamente regolato la relazione informativa tra eligendo ed elettore, omettendo però la norma sul tetto massimo per l’acquisto degli spazi pubblicitari. Questa mancanza ha consentito agli eligendi on line, che possono permetterselo, di accaparrarsi ogni spazio a discapito dei concorrenti politici, privi delle stesse disponibilità economiche. Qui il codice ha soddisfatto in via esclusiva gli interessi di F.B., che batte cassa grazie ai competitori ricchi, ma ha al tempo stesso pregiudicato il diritto fondamentale dei cittadini a ricevere un’informazione politica completa ed equamente distribuita, in danno della genuinità del consenso elettorale, bene caro alle Corti Supreme.

Gli esempi mettono in tensione il mito della neutralità della tecnica, che, se inteso come entità indifferente al bene o al male, mostra i suoi limiti in quanto la tecnica nelle mani dei privati persegue i soli obiettivi dei governi privati di interesse: concentrazione del potere economico, omogeneizzazione dell’opinione pubblica e rafforzamento delle asimmetrie sociali.

Qui è evidente che la tecnica abbia attuato alla “rovescia” l’art. 3, co. 2, Cost., cioè lo ha violato, rendendo i diseguali ancora più diseguali di quanto lo fossero prima del suo intervento.

Esaminiamo ancora un mito della rete: un tempo spazio dell’aporia regolatoria, oggi della self-regulation, regole scritte dai privati. Questi codici, riferibili appunto ai Governi privati di interesse, hanno un’efficacia più ampia della base associativa che si autoregola, superando così la relatività negoziale; e vantano una cogenza, che, benché priva di forza legale, è effettivamente osservata dai regolati, che in ragione del lock in si adeguano alle regole deboli con una scrupolosità maggiore di quella che presterebbero all’eteronomia vincolante.

Da ultimo l’Europa ha battuto un colpo, si è espressa, non più solo col diritto soft o dolce, ma anche con regole binding: tali sono le Proposte di D.S.A., dicembre 2020 (nell’aprile 2022 oggetto dell’accordo politico a tre); e di Regolamento sull’Intelligenza artificiale, aprile 2021, su cui anche il nostro Parlamento ha condotto audizioni informali con esperti della materia (e anche con me).

Cosa ha fatto l’Europa col D.S.A.?

Preso atto dell’iper-regolazione privata, la ha positivizzata, assegnando una patente di legalità a poteri di fatto illegittimi. Chiediamoci se sia conforme al diritto dei Trattati e all’ordine interno conferire funzioni normative alle Autorità private della rete. Possiamo avere più di una risposta, e questa pluralità di esiti dipende dal disegno riservato alla funzione in esame. Precisamente, si avrà delega di poteri, se la norma sulla competenza si sarà completata con l’assegnazione ex ante di fini precisi al potere regolatorio e con la prescrizione di un principio di disciplina sostanziale immediatamente conformativa dei rapporti intersoggettivi. Se le due condizioni si saranno verificate, questo tipo di delega non avrà alterato l’institutional balance perché il delegato non potrà sostituire la sua valutazione politica a quella del delegante, già compiuta e consegnata nell’atto di delega. Principio, questo, affermato da tempo dalla Corte di Giustizia (caso Meroni e poi nel 2014 con l’Autorità europea per gli strumenti finanziari-Aesfem), anche se questa legittimità condizionata dei poteri normativi riguardava le Autorità indipendenti europee, non il privato come delegato di potestà pubbliche.

Se invece la delega nascondesse una cessione indipendente di poteri normativi, quelli privi di una cornice predefinita entro cui esercitarsi “dans le cadre défini par les lois” (Cons. Const. 86/217 sulle Autorità indipendenti francesi), sarebbe legittima perché consentirebbe all’Autorità privata di compiere scelte politiche dalle quali dovrebbero mantenersi a debita distanza: “The intent is clear. Policy choises remain for the Commission, implementation is for the agency” (P. Craig, The constitutionalisation of community administration, in Eur. L. Rev. 28, 6/2003). Ebbene, nel caso in esame i codici privati si appropriano di una prerogativa riservata alla politica: scelgono valori, mediano tra questi e disegnano la loro misura di equilibrio. In un secondo momento, provvedono anche a darvi attuazione. Siamo dinanzi a un codice pseudo-indipendente dalla legge, che può solo esibire una norma sulla competenza come suo titolo legittimante, ma nulla di più; la sua secondarietà è solo potenziale: sarebbe fonte secondaria se e quando interverrà la legge. Ma si è secondi, se c’è qualcuno che ha parlato per primo; qui questo qualcuno è mancato perché il D.S.A. per una precisa scelta non ha fatto quanto avrebbe dovuto. Infatti, il D.S.A. gira in bianco alle piattaforme il concetto di discorso unfair, hate o addirittura falso. Il legislatore europeo non descrivere la fattispecie sostanziale del nuovo illecito, ma lascia che i limiti alla libertà siano sostanziati dai codici delle Autorità private.

Anzi in questo delegare senza limiti consente ai privati di fare in Internet quanto invece vieta al soggetto pubblico operante off line. Infatti, il falso non è un limite al freedom of speech, come il pensiero delle Supreme Corti ci dice, lo diventa quando ci spostiamo dalla realtà degli atomi a quella dei bit; con la conseguenza che se proprio volessimo punire il falso, dovrebbe essere il legislatore a definire in termini astratti e generali cosa sia il vero e cosa il falso, visto che questa sottile linea di demarcazione separa un atto lecito di esercizio di un diritto fondamentale da un fatto contra ius. Si può comprendere che la pervasività e l’immediatezza di Internet richiedano un’attenzione maggiore da parte del legislatore di quella prestata ai mezzi tradizionali, ma ciò non ci esime dal porci una domanda essenziale: è preferibile che il cittadino sia destinatario di notizie false o di un’informazione epurata dal falso, ma orientata all’ideologia del padrone della piattaforma? Senza considerare che il cittadino meritevole di protezione è esposto al più grave pericolo che la decisione sul vero e sul falso sia rimessa al privato sensibile al progetto politico della maggioranza politica di turno, stante “the government’s natural tendency … to twist reality to its own purposes”(così Steven G. Gey, The First Amendment and the Dissemination of Socially Worthless Untruths, 36 FLA.ST.U.L.REV.1, 17, 2008). Tra i due qual è il rischio minore? Il D.S.A. ha ritenuto peggiore il primo e quindi ha consentito la censura privata tramite l’intelligenza artificiale on line, degradando la rete da foro pubblico a orto di casa propria. (Economist 30 aprile 2022, Elon Musk is taking Twitter’s “public square” private).

Per questo ho detto che l’Unione sta coprendo con una patente di liceità poteri che sono e rimangono illegittimi.

Quanto poi al controllo, il futuro Regolamento confonde nelle stesse mani funzioni che avrebbero meritato imputazioni distinte: così i titolari delle piattaforme sindacheranno la liceità dei discorsi ospitati avvalendosi dell’intelligenza artificiale, i cui limiti come spazzino meccanico della rete sono evidenti. Quindi, F.B. et alii concentrano almeno due poteri: prescrivono le regole erga omnes e vigilano sulla loro osservanza. Accertata sommariamente la violazione di quanto prima prescritto, cancellano il discorso illecito. Inoltre, il tutto accadrà con una certa propensione a eliminare piuttosto che a conservare, visto che il D.S.A. prevede sanzioni solo a carico delle piattaforme che hanno lasciato in vita i discorsi di odio, non anche in caso di rimozione indebita di discorsi, che invece andavano mantenuti perché leciti.

Un’ultima notazione sul D.S.A.: l’atto è sovrabbondante di regole procedurali, ma la procedura è una sequenza di atti preordinati a un fine, se questo manca, la procedura è una scatola vuota per l’assenza delle norme sostanziali che la giustifichino. Infatti, nel DSA il discorso politico sulle regole di comportamento, come il disegno degli algoritmi, non è neppure avviato dal legislatore europeo, che lascia ai Governi privati di interesse il compito di iniziarlo e chiuderlo, nonostante siano privi della necessaria legittimazione politico-rappresentativa e quindi rimangano esenti dal successivo giudizio di responsabilità politica.

Analogo atteggiamento pilatesco il D.S.A. manifesta in tema di algoritmi, che non sono predisegnati nei loro elementi costituitivi e logica di funzionamento; quindi, il modello dell’algorithm constitutional by design (come ho approfondito in Towards an “Algorithm Constitutional by Design”, in BioLaw Journal, 1/2021) è anch’esso girato ai privati, per i quali gli standard di uguaglianza e di non discriminazione saranno più leggeri di quelli ai quali si sarebbe dovuto attenere il legislatore. In sintesi, andavano prescritti parametri più stringenti come binario entro il quale la tecnica si sarebbe dovuta articolare nel rispetto dei principi del costituzionalismo comune europeo.

Infine, lancio una sfida su un ulteriore compito in tema di algoritmi, compito questo disatteso dal D.S.A.

Chiariamo che quando l’intelligenza meccanica entra e compone l’istruttoria delle policy pubbliche (dalla comunicazione politica al mercato del lavoro), il momento acclarativo del fattore tecnologico non può sostituirsi a quello volitivo. Fermo restando la reciproca utilità tra le due grandezze, l’esito tecnico, per quanto incontrovertibile, non può stare in luogo della decisione politica. Chiusa la parentesi tecnica, rimane relativamente integro lo spazio della discrezionalità politica, certamente influenzata e guidata dalle risultanze tecnico-scientifiche, ma non tenuta a conformarsi. Nel processo legislativo il pungolo gentile non ha la medesima forza attrattiva che il nudge, di cui parla C. Sunstein, possa esercitare sul convincimento del giudice; potrà essere un punto di partenza del discorso politico, ma quest’ultimo sarà libero di svolgersi nella direzione che più gli aggrada, di selezionare interessi, di ordinarli secondo una scala di priorità autonoma dalla gerarchia tecnicamente suggerita. Spetta al legislatore decidere su quale gradino della ladder of risk intende fermarsi, la tecnica può solo indicarne uno a preferenza sugli altri, non imporlo. La politica si può esercitare alla luce degli algoritmi, anzi si deve, perché, una volta entrata la tecnica nel processo legislativo, il decisore ha il dovere di tenerne conto – ad esempio, la sua evoluzione comporterà il carattere provvisorio della scelta politica, anche se non consegnata in una legge a termine – ma ha anche il dovere di continuare a esercitare la sua volontà, la sua intenzionalità, cioè di compiere scelte sulle quali sarà chiamato a rispondere in sede politica.

Invece, questa istruttoria sembra svolgersi su una metrica vecchia. Gli algoritmi entrano nella procedura senza sentire dalla voce dei privati come andrebbero disegnati; eppure, gli algoritmi sono previsioni che riguarderanno il futuro di intere frazioni di una collettività destinata al silenzio. E qui neppur la buona volontà del nostro Consiglio di Stato potrà supplire a questa mancanza: il Supremo collegio ha sì corretto nella procedura amministrativa il difetto di informazione dell’algoritmo nei confronti del privato, ma non gli si può chiedere di correggere il procedimento a monte, perché rimane fuori dalla sua competenza. Qui stiamo parlando della partecipazione dei privati al farsi delle regole tecniche per prevenire algoritmi unfair e biased, non di come informare l’amministrato su un provvedimento algoritmico in corso. Nonostante il paradigma del débat public sia ampiamente noto all’esperienza francese, il D.S.A. non sembra averne conoscenza. Certo una regolazione pubblica con il supporto della partecipazione dei cittadini apre nuovi problemi, che qui possiamo solo anticipare e affidare alla vostra riflessione: standing, tempo e modalità di partecipazione, e non mi soffermo oltre, ma rinvio a mio lavoro (Regole. Comando e Consenso, 2005).

Infine, la Proposta di regolamento sull’Intelligenza artificiale prova a schematizzare i rischi connessi all’I.A. e per ciascuna classe di pericolo a prevedere regole prudenziali proporzionate alla sua entità. Il difetto dell’atto risiede principalmente nel modo in cui costruisce la nuova Autorità sulla I.A., che vanterà commissari solo privacy skilled, il che la indurrà a guardare in un’unica direzione, rendendola poco attrezzata a sindacare algoritmi che ledono valori diversi dalla riservatezza. Eppure, la realtà virtuale è il terreno dove i diritti non sono chiamati in causa in un’ordinata progressione temporale, perché le situazioni soggettive si confondono e si intrecciano le une con le altre; di conseguenza, la lesione di un diritto si trascina con sé anche un’altra libertà come effetto collaterale dell’inestricabile intreccio (rinvio a un mio scritto nell’Osservatorio sulle fonti, 2/2021, Autorità indipendenti e algoritmi: una famiglia disfunzionale). Pertanto, alla mescolanza dei diritti dovrebbe corrispondere una competenza della istituenda Autorità più inclusiva di quella prevista. Inoltre, questo scivolare reciproco dei piani del diritto suggerisce un’Autorità in permanente dialogo con le altre, mentre rimane chiusa in una monade impenetrabile all’esterno, potendo contare sulle sue sole forze, sostenute peraltro da incerti poteri.

Confido che il legislatore europeo possa correggere il tiro e sollevare il velo di opacità che la circonda per sottrarla al destino del gigante dai piedi di argilla.

 

C’è possibilità che il diritto oggi possa ancora dominare e regolamentare il nuovo ordine dettato dal digitale e dalla tecnologia?

L’Umanesimo al centro è il nuovo mantra della Commissione europea, ma per dare sostanza a questa pregevole intenzione la tecnica deve essere al servizio della politica, perché da sola non è in grado di pronunciarsi sugli obiettivi, terreno questo, riservato alla politica. Ritorna alla mente il mito di Prometeo, che sottrae il fuoco agli Dei per regalarlo agli uomini, ma la luce della ragione non li affranca dalla schiavitù, legandoli a un nuovo padrone: l’assolutezza della tecnica e la sua falsa promessa di felicità. Con Platone e Aristotele l’uomo viene educato alle “virtù della Politica” e del “saggio consiglio”, e quindi inizia a cogliere i limiti dell’onnipotenza della tecnica, che è scienza della quantità, non della qualità dei valori, come tale incapace a decidere il Common good per l’individuo. Ne consegue una posizione correttamente ancillare dell’innovazione tecnica alla politica, la sola preposta all’analisi e alla sintesi degli interessi generali di una comunità.

Al momento però non sembra verificata la condizione preliminare; infatti, la politica non si è riappropriata delle sue incedibili prerogative, non ha individuato i fini ultimi della mente meccanica, non ha tracciato un disegno sostanziale per l’I.A. e, più in generale, non ha anticipato il framework costituzionale entro cui il progresso tecnologico sia libero di correre. Se e quando questo accadrà, la centralità dell’uomo non sarà solo una parola, ma un fatto per noi e un’assicurazione per i nostri Figli.

 

Il video integrale, 9 e 10 maggio, del Convegno Internazionale “L’amministrazione digitale. Quotidiana efficienza e intelligenza delle scelte” è reperibile anche nel sito di Radio Radicale:

https://www.radioradicale.it/scheda/667647/lamministrazione-digitale-quotidiana-efficienza-e-intelligenza-delle-scelte-prim.

 

 

 

 

*Autrice di monografie: Costituzione. Emergenza e Terrorismo (Jovene, 2016), Libertà in rete. Libertà dalla rete, Giappichelli, 2022,  recensite da autorevoli studiosi. Autrice di oltre 100 saggi, pubblicati in riviste straniere referate.

Co-editrice di volumi, il più recente: Virtual freedom, terrorism and the law, Routledge-Giappichelli, 2021. Più volte Visiting professor alla London School of Economics e al Max Plack for Innovation and Competition, Munich.

Componente del Consiglio Superiore delle Comunicazioni; direttrice per 2 mandati del Centro Interdipartimentale  ERMES. Coordinatrice del Gruppo internazionale di ricerca “Constitutions at the age of Internet”, approvato dall’International Association of Constitutional Law. Nominata dalla Presidente della Camera dei Deputati membro della Commissione Parlamentare per l’“Internet Bill of Rights”.

 

 

 

 

a cura di

Valeria Montani

Back To Top