skip to Main Content

“Possono gli algoritmi sostituire gli esseri umani?”. L’analisi di Guido Noto La Diega

L’evoluzione verso la libertà è rappresentata dalla neutralità e oggettività degli algoritmi? Esiste davvero la neutralità degli algoritmi? Possono gli algoritmi prendere il posto dell’Uomo? Tutti li citano, molti li temono, qualcuno li definisce “presenze occulte” capaci di orientare le nostre vite. Ma cosa sono davvero queste sequenze di operazioni? Siamo all’alba della società post industriale che Daniel Bell definiva intellectual technologies?

Abbiamo posto alcuni di questi interrogativi di fondo al giurista Guido Noto La Diega, attento studioso della materia, docente di Cyber Law, Intellectual Property, EU Law, and Legal Research alla Northumbria University, dove è anche European Law Research Partnerships Coordinator di NINSO,  “The Internet & Society Research Group”, nonché autore di decine di articoli e libri sulla proprietà intellettuale, il cyber law, la privacy e data protection e Fellow di Nexa Center for Internet & Society e componente del board scientifico di “Semina Scientiarum”​, oltre che autore per Diritto Mercato Tecnologia.

Lei ha appena pubblicato uno studio approfondito con  10 ragioni contro l’algorithimic decision making e le sue implicazioni con la libertà di informazione. Quali sono le sue tesi?

E’ da tanto tempo che mi chiedo: possono gli algoritmi sostituire gli esseri umani? Ad esempio, verrà un giorno in cui saremo giudicati da algoritmi, invece che da giudici? La risposta e’ no, non possono, per almeno due motivi.

Innanzitutto, l’interpretazione giuridica e’ ubiquitaria e intrinsecamente discrezionale. Ogni momento della vita di un giurista e’ interpretazione: dalla lettura di un contratto, alla decisione di arrestare un soggetto, alla sentenza di condanna, tutto e’ interpretazione.

Detta interpretazione e’ discrezionale, mille fattori ne rendono gli esiti imprevedibili, a partire dall’indeterminatezza del linguaggio (cos’è la buona fede?) sino a considerazioni psicologiche che ruotano attorno all’empatia.

Se l’interpretazione fosse un’attività meccanica e il linguaggio giuridico si potesse ridurre a un codice binario, allora gli algoritmi potrebbero sostituire i giuristi ‘umani’, ma così non è.

Il secondo motivo per cui ritengo che detta sostituzione non possa avvenire attiene a cosa voglia dire “imparare”.  L’acquisizione della conoscenza e’ un processo di intuizione olistica che si articola in modi non formalizzabili e in cui l’interazione con altri esseri umani gioca un ruolo chiave.

Se, per contro, imparare volesse dire inserire dei dati in un sistema, allora un algoritmo potrebbe metterci sotto scacco, ma cosi’, ancora una volta, non e’.

Queste le ragioni per cui non è possibile sostituire i giuristi con degli algoritmi. Ma quali sono le ragioni per cui questo rimpiazzamento sarebbe indesiderabile?

La seconda domanda che mi sono posto è: ammesso che gli algoritmi possano sostituirci, detta sostituzione sarebbe positiva e dovremmo, quindi, permetterla?

Ad esempio, e’ possibile costruire armi letali autonome, ma un simile sviluppo dovrebbe essere consentito? Nel mio saggio presento 8 ragioni per cui ritengo la sostituzione algoritmi-esseri umani non desiderabile.

La ragione principale va sotto il nome di bias algoritmico. La narrazione dominante vuole gli algoritmi come “obiettivi”, ma la realtà che essi sono viziati dagli stessi pregiudizi degli esseri umani che creano l’algoritmo e lo “allenano”. La differenza è che un algoritmo non risponde delle conseguenze negative del bias e che quest’ultimo e’ piu’ difficile da individuare.

In secundis, detto bias dei giuristi “umani” potrebbe essere un punto a loro vantaggio, sol che lo se ne guardi l’altra faccia della medaglia, cioè l’empatia. Solo a chi adotti i più veti atteggiamenti formalistici può sfuggire che l’empatia e’ una qualità fondamentale per buone decisioni.

Segnalo sul punto i recenti studi di Thomas Colby che dimostrano come l’empatia sia un requisito della neutralità giudiziale e che è una caratteristica cruciale in luce del ruolo giocato nel diritto da concetti come ragionevolezza e bilanciamento.

In terzo luogo, propongo il concetto di triplice scatola nera, che spiega perché spesso sia impossibile comprendere il ragionamento in base al quale una decisione algoritmica è presa. La scatola nera dell’intelligenza artificiale e’ particolarmente evidente nei sistemi di deep learning in cui si conoscono i dati inseriti nel sistema e quelli di output, ma non si sa in base a quali considerazioni si sia giunti a un certo output.

V’e’ poi la scatola nera giuridica, dovuta al fatto che sovente questi algoritmi sono coperti dai c.d. segreti industriali o trade secrets (si pensi all’algoritmo che decide l’ordine dei risultati delle nostre ricerche su Google Search).

Infine, la scatola nera organizzativa vuol dire che i principali algoritmi sono controllati da poche società multinazionali che operano in modo alquanto opaco. La triplice scatola nera comporta che non possiamo comprendere le ragioni delle decisioni algoritmiche ed e’ facile immaginare quanto questo sia problematico specialmente in un contesto giudiziale. Come faccio a difendermi in giudizio se non so come mai un algoritmo abbia portato a una determinata decisione contro di me?

Venendo al quarto argomento, gli esseri umani sono equipaggiati con un meccanismo che assicura che, come gruppo, le loro decisioni siano coerenti, si chiama psicologia della conformità, messa a punto da Solomon Asch negli anni ’50 del secolo scorso. Non avendo gli algoritmi una psiche, detto meccanismo non può assicurarne la coerenza.

Se la coerenza e’ un importante fattore nel diritto perché è legata al fondamentale concetto di certezza del diritto, essa in se’ non assicura che le decisioni prese dagli esseri umani tendano al bene comune o, se si vuole, alla sua versione cristallizzata nel diritto vigente.

Ad assicurare che l’umanita’ tenda verso il bene interviene, allora, il potere della sanzione. Anche esseri umani non inclini al bene si autocontrollano per evitare di essere sanzionati. La sanzione ha, in pari tempo, una funzione deterente e di orientamento culturale. E pero’, gli algoritmi non conoscono il concetto di timore e non andranno incontro a sanzioni, per cui il potere della sanzione non può far si’ che le decisioni algoritmiche tendano verso il bene.

Si potrebbe obiettare che “bene” è un concetto vago e che aderenza alle norme non e’ in se’ e per se’ un dato positivo.

Qui interviene il sesto argomento a sostegno dell’indesiderabilità del rimpiazzamento dei giuristi (e degli esseri umani più in generale) con degli algoritmi. Parlo della forza civilizzatrice dell’ipocrisia, concetto che mutuo da Jon Elster.

Si può accettare l’idea che molti politici siano mossi da motivazioni egoistiche, ma nel dibattito parlamentare, in quanto pubblico, la loro ipocrisia farà si’ che non potranno favorire apertamente i propri interessi personali, dovendo, invece, prediligere decisioni che, essendo orientate al bene comune, siano difendibili pubblicamente.

Mi si potrebbe obiettare che tante democrazie hanno portato a decisioni che, viziate da interessi privati, hanno danneggiato la società. Ciò è certamente accaduto e continuerà ad accadere, ma c’è da chiedersi quale sia l’alternativa. E ciò ci conduce al settimo argomento.

L’alternativa del diritto democraticamente prodotto è la tecnocrazia. Gli algoritmi sono sviluppati in modo opaco da una piccola comunità di informatici al libro paga di poche società multinazionali e che difficilmente risponderanno qualora vada storto.

Ammettiamo, per amor di tesi, che io mi sbagli e che sia possibile e per certi versi desiderabile sbarazzarci dei giuristi perchè, in fondo, basterebbe trovare il giurista migliore del mondo e farne un clone algoritmico.

Vi sono almeno due problemi. Innanzitutto, chi decide i criteri in base ai quali scegliere il miglior giurista e, ammesso che si trovi un accordo sui criteri, potranno essere cosi’ chiari da individuare detta figura o ci sara’ sempre un certo grado di discrezionalità?

In secondo luogo, in via dirimente, qualora ci si accordi su questo supposto giurista ideale, ipotizziamo il compianto Stefano Rodotà, è davvero desiderabile crearne un milione di cloni che prendano tutte le decisioni o ci sarebbe un problema in termini di pluralismo?

Che impatto ha il nuovo Regolamento Europeo su tutto questo, qual è la sua valutazione?

Il Regolamento Europeo sulla Protezione dei Dati Personali, il famigerato GDPR, contiene alcune previsioni che consentono a un cittadino che sia stato oggetto di una decisione algoritmica (o basate unicamente sul trattamento automatizzato, nel linguaggio del GDPR) di attivare un rimedio avverso la stessa.

Complessivamente la mia valutazione è positiva, perché adesso noi cittadini abbiamo a disposizione un armamentario giuridico robusto per l’eventualità che qualcuno usi degli algoritmi per prendere decisioni che possono avere degli effetti significativi nella nostra vita.

Si pensi a una banca che decide di non concederci un mutuo perché un algoritmo ha deciso che non siamo dei buoni pagatori. Oppure è ancora più significativo il caso del sistema algoritmico COMPAS usato dai giudici negli Stati Uniti per decidere se l’imputato sia un pericolo per la comunità oppure no.

Ora il GDPR pone come regola generale il divieto per società, pubbliche amministrazioni, ecc. di sottoporre i cittadini a decisioni algoritmiche che producano effetti giuridici (ad esempio la perdita del lavoro) o che incidano significativamente sulla loro persona (si pensi alla manipolazione dei consumatori effettuata dalle società di gioco d’azzardo online).

Esistono solo tre casi in cui le decisioni algoritmiche sono legittime: se necessarie per la conclusione/esecuzione di un contratto, autorizzata dal diritto europeo o nazionale, o se vi e’ il consenso esplicito dell’interessato. Non bisogna pensare, pero’, che qualora ricorra una di queste ipotesi, il cittadino colpito dalla decisione algoritmica non possa fare niente per fare valere le proprie ragioni.

In particolare, alcuni diritti sono inviolabili: il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione.

Il punto più controverso sembra essere quali obblighi informativi abbiano le società che utilizzano algoritmi per adottare le decisioni in parola. Il GDPR crea un diritto di essere informati e accedere all’informazione circa la logica utilizzata nella decisione algoritmica, nonché l’importanza e le conseguenze previste.

In dottrina si discute se questo vada inteso come obbligo per il decisore di “aprire” l’algoritmo e spiegarlo.

Ritengo che la risposta debba essere affermativa e che il titolare del trattamento debba consegnare al cittadino in questione tanto un documento tecnico contenente la descrizione dell’algoritmo e del suo funzionamento, sia un documento che spieghi in modo atecnico come funzioni l’algoritmo e la motivazione della decisione contestata.

Il primo documento e’ fondamentale qualora si agisca in giudizio e, con l’aiuto di un consulente di parte, il difensore possa cosi’ avere un quadro più chiaro della situazione.

 Algoritmi, intelligenza artificiale, profilazione dei dati: cosa rischiamo davvero come cittadini? Un algoritmo può davvero modificare le percezioni umane?

Viviamo in un modo disumanizzato. Sempre piu’ spesso, le nostre interazioni sono con algoritmi, con sistemi di intelligenza artificiale, con macchine e robot di vario tipo.

Non approfondisco qua il terribile impatto psicologico e sociale che questa tendenza e’ verosimile abbia. Mi interessa, piuttosto, far sì che l’automatizzazione non venga utilizzata da società come Google, Facebook e Amazon per escludere la responsabilità per le loro azioni, nascondendosi dietro la scudo algoritmico.

Spero che il mio saggio costituisca parte di questa discussione e che contribuisca a creare consapevolezza che il diritto e’ lungi dall’essere perfetto, ma che a ben guardare può continuare a costituire un solido usbergo per il cittadino, un appiglio per contrastare la crescente disumanizzazione di cui siamo, ahinoi, testimoni.

 

Back To Top