skip to Main Content

Intervista al Prof. Cesare Pinelli ed al Prof. Ugo Ruffolo. I Diritti nelle Piattaforme

Ugo Ruffolo, professore ordinario di Diritto Civile e Diritto della Comunicazione presso la Scuola di Giurisprudenza dell’Università di Bologna dal 1980 al 2012. Attualmente, è docente di Diritto dell’Intelligenza Artificiale presso l’Università di Bologna e la Scuola di Giurisprudenza dell’Università LUISS Guido Carli. Esperto di diritto societario, contrattuale, della responsabilità civile, dei pubblici appalti e delle relazioni con le Autorità amministrative indipendenti, il Prof. Ruffolo ha offerto assistenza a importanti imprese nazionali e multinazionali, oltre a enti pubblici, acquisendo competenze sia nel campo giudiziario che arbitrale.

Cesare Pinelli, professore ordinario di diritto costituzionale presso la Facoltà di Giurisprudenza dell’Università “Sapienza” di Roma. Autore di scritti in diritto costituzionale italiano e comparato, pubblico e amministrativo, fra cui 6 monografie, nonché pubblicazioni in lingua spagnola, inglese, francese, tedesca e portoghese. Direttore della rivista Diritto pubblico. Membro supplente della Commissione per la democrazia attraverso il diritto (Commissione di Venezia).

 

Il Prof. Ugo Ruffolo

 

Il Prof. Cesare Pinelli

 

Nel volume recentemente da Voi pubblicato, I Diritti nelle Piattaforme, prendete in esame la dialettica tra diritti e doveri delle piattaforme e degli utenti, considerando anche la normativa dell’Unione Europea come il DSA, DMA e GDPR. Quali principali sfide e opportunità vedete nel bilanciare la tutela dei diritti e la regolamentazione delle piattaforme digitali?

Prof. Ruffolo: A fronte della epocale novità del fenomeno, crediamo che preliminare, e dirimente, problematica attenga al dibattito tra chi invoca la necessità di un “ecosistema normativo” interamente nuovo per regolare il “nuovo mondo” e chi, invece, pur consapevole della necessità di “chirurgici” interventi normativi settoriali, ritiene che il fenomeno – in particolar modo quello della content moderation, con riguardo a diritti quali quello alla libertà di manifestazione (e, ancor prima, formazione) del pensiero – possa trovare soddisfacente governo, offrendo sufficiente tutela agli utenti del web, nel ricorso agli strumenti di mediazione giuridica contemplati dalla metodologia e disciplina generali, e in particolar modo per quanto attiene la content moderation nella disciplina e dimensione contrattuale. (quello tra utenti e piattaforma è un contratto, soggetto quindi alle norme che ne governano i connessi limiti), esaminata alla luce anche dei generali principi dettati dal quadro delle norme ed orientamenti costituzionali ed unionali.

Il fenomeno potrà essere efficacemente governato, e trovare articolata mediazione giuridica, su base eminentemente interpretativa. I limiti di validità ed efficacia delle clausole di content moderation, con le quali la piattaforma si attribuisce il diritto di “oscurare” determinati contenuti, sembrano così costruibili con ricorso a figure quali la nullità da contrarietà a norme imperative o all’ordine pubblico, come desumibili dalla operatività incisiva di norme quali artt. 21, 2 e 3 Cost.; e poi evocando gli ulteriori limiti all’autonomia privata sulla base della “meritevolezza” dell’interesse perseguito (art. 1322 c.c.), o quelli derivanti dalle norme in materia di contratti con il consumatore.

 

Uno dei punti focali del Vostro lavoro riguarda la libertà di parola online e la necessità di definire limiti ragionevoli, che possono essere contrattuali, autodisciplinari o di coregolamentazione. Quali criteri o linee guida suggerireste per stabilire questi limiti in un contesto in continua evoluzione?

Prof. Ruffolo: Il far valere limiti di liceità e legittimità, e dunque di validità ed efficacia, delle clausole di content moderation può diventare strumento di governo dei poteri di moderazione delle piattaforme; che restano esercizio non di “censura privata”, ma di poteri contrattualmente previsti, e dunque soggetti ai limiti desumibili dalla complessiva disciplina contrattuale anche interpretativamente costruita sulla base dei richiamati principi e norme. Molto di quanto potrà ritenersi lecitamente praticabile dalle piattaforme in relazione a misure di rimozione di contenuti – quali quelli veicolanti fake news, disinformazione, deepfake – o “blocco” di account di utenti o deplatforming dipenderà, dunque, dalla concreta e specifica formulazione di tali clausole, che dovranno essere “ragionevoli” e sapientemente modulate contemperando i diritti “editoriali” e d’impresa delle piattaforme con quelli personali e di libertà anche d’espressione dell’utente, altresì per consentire un legittimo intervento “correttivo” o di “blocco” del provider (sono esaminati, tra gli altri, i noti casi “Forza Nuova” e “Casa Pound”).

In tal senso, fondamentale contributo può provenire altresì dalla definizione di forme di soft law con matrice di autonomia privata (codici di condotta, best practices…), quale strumento di autoregolazione di settore che si affianchi, recependole, alle discipline soprattutto di matrice unionale, alle quali conferire così più specifico contenuto. Potrebbe essere, questo, virtuoso strumento di autoregolazione di settore, secondo schemi e modelli che, in altri ambiti, si sono dimostrati efficaci (si pensi all’autodisciplina pubblicitaria).

 

La Vostra analisi si estende anche alle azioni di tutela, tra cui quelle individuali, di classe, collettive e rappresentative. Come vedete l’evoluzione di tali azioni nel contesto delle piattaforme digitali e delle sfide poste dalla disinformazione e dalla profilazione eccessiva?

Prof. Ruffolo: Se i poteri privati si sostituiscono a quelli pubblici nel gestire gli spazi (privati) che sostituiscono la pubblica piazza, idonei strumenti di tutela della libertà di pensare e di manifestare il pensiero, anche a fronte di forme di profilazione estrema, possono essere rinvenuti soprattutto sul terreno delle azioni collettive, o delle nuove azioni “rappresentative” (Direttiva 2020/1828, recepita in Italia negli artt. 140-ter ss. cod. cons.).

Si tratta di strumenti dati a tutela di interessi collettivi anche non individualmente azionabili (ben suscettibili di venire in rilievo anche nella materia in esame), e che conferiscono ai giudici investiti della questione poteri anche molto ampi, soprattutto quando la legge consente loro di poter imporre misure non soltanto inibitorie (vietare una determinata condotta o la sua reiterazione), ma altresì “correttive” (“idonee a correggere o eliminare gli effetti dannosi delle violazioni accertate”; v. art. 840-sexiesdecies c.p.c., richiamato in Italia anche in materia di azioni “rappresentative”). Si tratta di misure potenzialmente molto incidenti, che consentono al giudice ingerenze anche significative nell’agire imprenditoriale (eliminare o modificare clausole contrattuali, inibire specifiche pratiche di profilazione, imporre comunicazioni correttive sotto forma di labelling o warning…).

E non dimentichiamo che, mentre l’azione “rappresentativa” resta proponibile soltanto da associazioni rappresentative dei consumatori (anche di altri paesi UE), l’art. 840-sexiesdecies c.p.c. (introdotto dalla legge 31/2019, in vigore da maggio 2021) conferisce legittimazione all’introduzione di azioni collettive (oltre a qualificati enti esponenziali, altresì a) “chiunque”, dunque anche al singolo, al quale è dato “accesso alla giustizia” anche per la tutela di interessi collettivi individualmente non azionabili; rivelandosi quasi una azione popolare.

 

Prof Pinelli:: La risposta dell’Unione europea alla disinformazione è rimasta fino a non molto tempo fa allineata alla Samaritan clause americana fissata nell’art. 230 del Communications Decency Act del 1996, che esenta i titolari delle piattaforme da ogni responsabilità per “una qualsiasi informazione fornita da terzi”. Si era agli albori di Internet, quando legislatori, giudici e giuristi erano indiscriminatamente favorevoli alle nuove potenzialità espressive consentite dalla rete. E’ un atteggiamento che nella giurisprudenza della Corte Suprema arriva perlomeno fino a Packingame (2017), che dichiarò illegittima una legge che vietava l’accesso ai social network per i colpevoli di reati a sfondo sessuale, poiché il divieto si estendeva a siti che avrebbero potuto favorire il loro reinserimento sociale. In Europa, dove peraltro la giurisprudenza è sempre stata più cauta nel puntare sulla doctrine del “libero mercato delle idee”,  il maggior cambiamento lo si è registrato però in sede legislativa, prima con leggi di singoli Stati membri (Francia e Germania), poi col Digital Service Act varato nel 2022 dall’Unione europea e destinato a entrare in vigore nel 2024. Falliti i tentativi di autoregolamentazione delle piattaforme, con tale regolamento l’Unione non solo impone una serie di obblighi per tutti i prestatori di servizi, che vanno  dalla notifica di informazioni con contenuti illegali alla motivazione delle decisioni di rimuovere specifiche informazioni fornite dai destinatari del servizio o disabilitare l’accesso alle stesse, ma ne prevede di supplementari per i titolari delle piattaforme molto grandi, rendendoli nello stesso tempo responsabili della valutazione di “rischi sistemici” concernenti fra gli altri eventuali effetti negativi per l’esercizio dei diritti fondamentali sanciti dalla Carta di Nizza.

 

Nel contesto attuale, le comunicazioni digitali non cartacee, come quelle via web, sono spesso equiparate alla “stampa” in termini di regolamentazione e diritti. Quali sono le implicazioni di questa equiparazione e come dovrebbero essere affrontate dalle autorità di regolamentazione?

Prof. Ruffolo: Per vero, molte comunicazioni via web sono allo stato sottratte all’equiparazione, anche quanto a immunità da provvedimenti giurisdizionali o autoritativi di natura inibitoria, con la “stampa” ex art. 21, commi 2 e 3, Cost., quale effetto di un orientamento giurisprudenziale, oggi dominante, che si mostra talora come fondato su una concezione eccessivamente restrittiva di cosa possa essere considerato come “stampa” (v. i noti casi “Le Iene” o “Striscia la Notizia”), mentre un più risalente orientamento dei giudici di merito si rivelava maggiormente avvertito.

Nel definire se e quanto le nuove forme di manifestazione del pensiero via web – ma anche radiotelevisive – possano essere equiparate alla “stampa”, si ritiene debba superarsi una lettura che limiti alle sole comunicazioni non cartacee assimilabili ai quotidiani o periodici “regolari” sulla base dei requisiti (troppo limitativi) previsti dalla legge sulla stampa (legge n. 47/1948).

 

Prof Pinelli::  Nell’art. 21 della Costituzione, la libertà di manifestare il proprio pensiero “con la parola, lo scritto e ogni altro mezzo di diffusione” incontra testualmente il solo limite di contenuto del buon costume, cui se ne debbono aggiungere altri desunti da altri principi costituzionali, fra i quali sicuramente onore e riservatezza. Altro è la disciplina dei congegni e degli istituti idonei a far valere questi limiti di contenuto, che essendo espressione di pubblici poteri sono a loro volta limitati. Qui la Costituzione si interessa solo della stampa, col divieto di autorizzazioni o censure e la prescrizione del sequestro degli stampati in ipotesi disciplinate dalla legge e con specifica individuazione delle autorità chiamate a intervenire a seconda delle fattispecie ivi indicate. Si interessa solo della stampa perché si era nel 1946-47, e quello era lo strumento di diffusione di gran lunga più utilizzato insieme alla radio. Da allora lo straordinario sviluppo di altri mezzi di diffusione, se è sempre potuto rientrare sotto l’ampia clausola residuale di “ogni altro mezzo di diffusione” senza dover minimamente rivedere la Carta, ha tuttavia posto la  questione del margine di assimilabilità dei congegni costituzionalmente previsti per far valere i limiti alle manifestazioni di pensiero a mezzo stampa a quelli necessari per farli valere in riferimento ai nuovi mezzi di diffusione. E’ una questione che a mio avviso non può trovare un’unica risposta, soprattutto in presenza di uno sviluppo  tecnologico sempre più accelerato come quello odierno, che oltretutto  sfida la frontiera fra manifestazione del pensiero (aperta a tutti) e comunicazione (riservata a un numero determinato o almeno determinabile di destinatari), la quale trova distinte forme di protezione nell’art. 15 Cost.

 

Infine, avete menzionato il Metaverso e l’intelligenza artificiale generativa come nuove sfide. In che modo queste tecnologie stanno influenzando la dialettica tra diritti e doveri nelle piattaforme digitali, e quali misure o regolamentazioni potrebbero essere necessarie per affrontare tali sfide in modo efficace?

Prof. Ruffolo: Per entrambi i fenomeni (metaverso e A.I. generativa) ricorrono frequenti invocazioni di necessità di “nuovi ecosistemi normativi” per regolarli, mentre talora, ancora una volta, il ricorso a discipline e principi generali, mediante avvertita interpretazione evolutiva, potrebbe risultare capace di garantire idonea mediazione giuridica (fatta salva l’eventuale necessità di interventi regolatori a contenuto regolamentare e lato sensu “tecnico”). Ricordando sempre il condiviso principio secondo il quale ciò che (il)lecito offline deve essere (il)lecito anche online, e viceversa.

Così, il metaverso (il cui sviluppo risulta ancora embrionale, come riconoscono gli stessi operatori del settore) non è, come talora si afferma, un “nuovo mondo” mediabile solo da un “nuovo ecosistema giuridico”, ma un fenomeno che dovrà trovare mediazione sulla base dei principi costituzionali ed unionali, con particolare riguardo alla dimensione contrattuale, alle “regole del gioco” proposte dalle piattaforme agli utenti nelle “condizioni di servizio”, la cui validità ed efficacia, correlata anche alla loro ragionevolezza e meritevolezza, è condizionata dal centrale ruolo assunto dalle norme e principi generali informanti anche le discipline dei rapporti contrattuali ed i limiti dell’autonomia privata, anche autodisciplinare e coregolatoria.

Quanto all’A.I. generativa (ChatGPT, Bard…), essa pone problemi – non soltanto di tutela del diritto d’autore (sia quanto ai contenuti così creati, sia quanto a quelli “consultati” dalla macchina per imparare), ma anche – in relazione alla fallibilità o al carattere censurabile (ad esempio, quando offensivo o discriminatorio) di taluni responsi della “macchina”, anche quale effetto di sue “allucinazioni”, o come potenziale strumento di diffusione di fake information. Emergono, allora, le nuove declinazioni, censite nel volume, delle problematiche di libertà di manifestazione, e ancor prima formazione, del pensiero. Soprattutto perché la invocabilità (e i limiti) dello strumento regolamentare dipende dalla invocabilità o meno, e in che limiti, della tutela accordata alla libertà di espressione a seconda che il “parlare” sia imputabile alla entità robotica o invece al soggetto umano che se ne avvale; rammentando anche che la libertà di manifestare il pensiero protegge l’interesse collettivo e sociale alla libera circolazione delle idee, anche come momento di formazione del pensiero; e dunque l’interesse di chi “ascolta” e non solo quello di chi “comunica”.

 

Prof Pinelli: In effetti l’avvento del digitale,  e a più forte ragione  dell’intelligenza artificiale, ha scosso alla radice le antiche certezze su cui erano state costruite le pur per altri aspetti diverse visioni della libertà di informazione che avevano dominato sui due lati dell’Atlantico. Esse consistevano di una serie di assunti, a partire da quello che pochi soggetti fossero interessati a diffondere il proprio pensiero a fronte dei molti utenti interessati ad ascoltare e in grado di disporre del tempo per farlo, e dalla identificazione nel potere pubblico come il solo soggetto idoneo a limitare l’altrimenti libero mercato delle idee. Ebbene con la rete, e in particolare con lo sviluppo dei social network, questi assunti vengono invertiti: una crescita esponenziale di quanti sono interessati ad esporre il proprio pensiero, una corrispondente diminuzione degli utenti all’ascolto a causa del sovraccarico informativo, una costante attenzione dei titolari delle piattaforme nei confronti degli utenti al fine di massimizzare i contatti e influenzarne le scelte anche grazie ad ormai ben note attività di profilazione, la conseguente scoperta che gli stessi protagonisti del libero mercato delle idee possono convertirsi in manipolatori del pensiero in misura non minore dei titolari del potere pubblico. Ora anche i giuristi sono molto più disponibili ad ammettere, con James Balkin, che  l’esercizio dei diritti online si gioca intorno alla relazione fra tre gruppi di soggetti: gli stati e le grandi organizzazioni sovranazionali come l’Unione europea; le compagnie operanti nello spazio digitale quali quelle dei motori di ricerca e delle piattaforme dei social media; gli utenti delle piattaforme, che le usano per comunicare con gli obiettivi più disparati, compreso quello di esercitare una pressione sociale sulle compagnie digitali per modificare le loro politiche. La configurazione sostanziale della libertà di espressione sulle piattaforme dipende dalle lotte di potere che si svolgono fra questi tre gruppi di soggetti.

 

Back To Top