skip to Main Content

Come regolamentare Internet e gli algoritmi. Intervista al prof. Giorgio Resta

Giorgio Resta è Professore ordinario di Diritto privato comparato presso l’Università degli Studi Roma Tre.

Come regolamentare Internet tutelando nel contempo la libertà di espressione? Alcuni ritengono che affidare ad un governo o alle piattaforme il potere di decidere cosa si può dire e cosa no potrebbe essere rischioso. Lei condivide questa preoccupazione?

Il tema è evidentemente complesso e non può essere affrontato in poche battute. Non è un caso che esso sia al centro, da sempre, di tutte le riflessioni su come regolamentare Internet. Le principali opzioni che si contendono il campo da almeno un trentennio, con infinite varianti interne, sono ben note: self-regulation, soft-regulation, hard law. La garanzia accordata alla libertà d’espressione sembrerebbe massima nell’ipotesi di self-regulation e minima nel caso di hard law. Tuttavia questa è una prospettazione semplicistica e ingannevole, in primo luogo perché il modello della self-regulation, in un sistema nel quale capitale immateriale e tecnologia tendono ad essere sempre più accentrati, non implica di per sé una più efficace garanzia della libertà di circolazione delle idee. Ce lo insegna, mutatis mutandis, la storia del capitalismo: un sistema di mercato privo di regole, sul modello del liberismo manchesteriano, non necessariamente conduce alla libertà di concorrenza, ma può portare al contrario alla sua eliminazione. Così, rispetto all’economia e alla società digitale, è pura utopia pensare che le virtù di autoregolazione della rete possano fare a meno della “mano visibile” del diritto. È soltanto grazie all’intervento delle norme in senso formale, dotate di una qualche forma di coercibilità, che può risultare possibile evitare l’abuso di posizioni di vantaggio di vario tipo e garantire condizioni effettive di esercizio della libertà d’espressione.

Non vedo un conflitto, ma anzi una necessaria sinergia tra il pubblico e il privato nella tutela della libertà d’informazione. Ovviamente non possiamo dimenticare che non esiste una ricetta assoluta per individuare il migliore contemperamento tra libertà e controllo: diverse società e tradizioni giuridiche fissano l’asticella dell’equilibrio ad altezze differenti, e non è detto che una sia migliore dell’altra. È noto, ad esempio, che il diritto USA è dichiaratamente intollerante nei confronti di un controllo esterno – e segnatamente di un controllo del governo o dei tribunali – sui contenuti dei messaggi; e ciò sino al prezzo di ritenere che sia costituzionalmente tutelato marciare con i simboli nazisti in una cittadina abitata dai sopravvissuti dell’Olocausto, o che sia illegittima la restrizione dell’accesso da parte dei minori ai contenuti pornografici in rete. Perciò si è parlato di un eccezionalismo USA, specie ove lo si confronti con le innumerevoli ipotesi di legittima compressione della libertà d’espressione accolte in Europa o, ancor più, in altre tradizioni giuridiche. Ma, insisto, sarebbe erroneo ritenere che l’uno o l’altro sia il modello corretto, prescindendo dalla considerazione della sua storia e dei relativi vincoli istituzionali: la comparazione giuridica insegna che le differenze sono sempre e soltanto relative, mai assolute.

Dunque, tornando al tema iniziale, scartando la soluzione – che è al momento assolutamente irrealistica – di regole globali sulla rete, un’ipotesi di normativa regionale che regolamenti la libertà d’espressione in maniera coerente con i principi espressi nella Convenzione europea dei diritti dell’uomo e nella Carta dei diritti UE mi sembrerebbe certamente percorribile e non avrei timore ad ammettere un controllo contenutistico sui contenuti informativi. D’altronde, saremmo disposti forse a ritenere che i messaggi negazionistici – per fare un semplice esempio – sarebbero proibiti offline e potrebbero invece essere liberamente diffusi online, quando ben sappiamo che l’anonimato costituisce uno dei fattori che maggiormente proteggono ed incitano messaggi violenti e razzisti? Il quadro dei valori costituzionali previsti a tutela della libertà d’espressione, e i modelli di contemperamento perfezionati dalle Corti europee – riflessi peraltro in alcune delle più importanti Dichiarazioni dei diritti in Internet – costituiscono una valida rete di protezione per evitare il rischio che le restrizioni apposte a tutela dei diritti altrui (dignità della persona, reputazione, presunzione di innocenza, indipendenza del potere giudiziario, etc.) si tramutino in uno strumento indiretto di censura o controllo. Piuttosto, una volta percorsa tale via, si aprirebbe il problema ulteriore di come disciplinare le ipotesi di rapporti transfrontalieri tenendo ferma la tutela dei diritti, ma evitando gli eccessi dell’applicazione extraterritoriale del diritto interno (si pensi al caso Yahoo France o alla controversia attualmente pendente presso la Corte di giustizia UE nel caso Google v. CNIL); questo tuttavia è un tema che ci porterebbe troppo lontano.

Avrei invece qualche perplessità ad affidare un simile esercizio di bilanciamento alle piattaforme, poiché gli interessi da queste perseguite sono necessariamente interessi particolari e non generali. Quel che invece è indispensabile è un approccio di tipo sinergico e non conflittuale tra pubblico e privato. Non è possibile infatti ignorare che la sfera pubblica digitale è in larga parte costruita dalle regole tecnologiche (il “code” à la Lessig) e contrattuali precostituite dagli operatori privati. Sì che la stessa possibilità di enforcement delle regole pubbliche richiede necessariamente la cooperazione del potere privato: si pensi ad esempio alla rimozione dei contenuti illeciti da YouTube o alla de-indicizzazione da motori di ricerca, oltre che a tutto il campo del trattamento dei dati per finalità di tutela della sicurezza nazionale.

Gli algoritmi rappresentano forse il fulcro della rivoluzione digitale. Risultano piuttosto utili quando si tratta di fare acquisti online, però rappresentano spesso un problema per il pluralismo dell’informazione perché selezionano per noi solo una certa visione del mondo, escludendo tutte le altre. Come trovare un equilibrio?

Mi ha molto colpito qualche tempo fa l’affermazione di uno dei massimi data scientists italiani intervenuto a un convegno sugli algoritmi, il quale ha sottolineato l’improprietà del riferimento ormai corrente alla nozione di “intelligenza artificiale”. Non vi sarebbe, a suo avviso, nulla di artificiale nella machinery algoritmica, perché la stringa di base è programmata dall’uomo in funzione di determinati obiettivi e visioni del mondo.

Tale consapevolezza non va abbandonata quando ci interroghiamo sul governo e la regolamentazione delle decisioni algoritmiche, tanto più quando si prenda in considerazione l’impatto dei procedimenti automatizzati sulla costruzione dell’ecosistema informativo. Molteplici ricerche hanno dimostrato che l’orientamento delle notizie rese fruibili agli utenti dei social network secondo una ben precisa scala gerarchica dipende dalla specifica programmazione dell’algoritmo, la quale può prediligere determini obiettivi o valori a detrimento di altri, o semplicemente può essere orientata alla produzione dei massimi profitti (secondo la logica organizzativa delle multi-sided platforms). I risultati sono sotto gli occhi di tutti: il particolarismo elevato a sistema, crisi profonde della democrazia rappresentativa (la quale presuppone un’opinione pubblica preparata e informata), delegittimazione delle agenzie imparziali di produzione della cultura, e dunque incapacità di trovare una sintesi tra visioni del mondo sempre più differenziate e inconciliabili. Non è soltanto la tecnologia a determinare questi risultati, da taluno sintetizzati con l’espressione efficace “democrazia della rabbia”, ma sarebbe ingenuo sottovalutare l’impatto che essa ha nel determinare i caratteri dell’ecosistema informativo (basti ricordare che si stima che circa il 50% dei tweet che circolano sulla rete sono il prodotto dell’azione delle macchine e non il frutto di genuine forme di esercizio della libertà d’espressione).

Mi chiedo, allora, se alla luce di questa consapevolezza, non sia opportuno ragionare sull’opportunità di estendere l’ambito di applicazione di regole come quella dell’art. 22 del GDPR, che limita il controllo sugli algoritmi alle decisioni interamente automatizzate che producono “effetti giuridici” che riguardano l’individuo o che incidano in misura analoga sulla sua persona. Se ciò può legittimare un controllo sull’uso degli algoritmi a fini di assunzione lavorativa o concessione del credito, fuoriesce dall’ambito di applicazione della norma il caso qui considerato dell’impatto sulla formazione delle opinioni individuali, e dunque sulla sfera pubblica. In un’ipotesi di disciplina generale sull’uso degli algoritmi, ritengo che il diritto non possa disinteressarsi di un problema tanto delicato e importante per il funzionamento della democrazia rappresentativa.

Certo sarebbe ingenuo ritenere che il diritto possa mai essere autosufficiente, sì da rendere certamente auspicabili tecniche concorrenti, come l’uso in funzione garantistica della stessa tecnologia (si assiste ormai ogni giorno allo sviluppo di appositi algoritmi di auto-apprendimento volti a scovare e correggere l’esistenza di bias decisionali e a promuovere il valore della ‘correttezza’ decisionale), o la promozione di standard etici atti ad orientare il comportamento degli operatori. Tuttavia è bene non dimenticare che in tal caso ci si muove pur sempre in una logica di autodisciplina, la quale è per propria natura soggetta soltanto a quei vincoli che la cultura degli operatori e le prassi tecnologiche condivise in un dato momento storico possano suggerire. Dato il rango costituzionale delle situazioni coinvolte, ritengo che sia imprescindibile apprestare un’adeguata infrastruttura istituzionale, composta di norme, rimedi e procedure adeguati agli interessi in gioco e in grado di assicurare una qualche forma di controllo sociale sull’uso dell’algoritmo.

I temi discussi nell’intervista trovano ampio spazio anche nel manuale “Diritto dell’informatica e della comunicazione“, giunto alla terza edizione, a cura di Alberto Gambino, Andrea Stazi e Davide Mula.

Back To Top