La Commissione europea ha recentemente pubblicato i primi progetti ai quali è stato assegnato il…
Cambridge Analytica, Pluralismo 2.0 e Democrazia. Parla Antonio Nicita
Il caso di Cambridge Analytica è scoppiato in concomitanza alla completa entrata in vigore del nuovo Regolamento europeo, la General Data Protection Regulation (GDPR), cosa succede ai nostri dati? Ci può essere una via europea alla privacy tale da rappresentare un modello di riferimento nel mondo?
Senza dubbio il modello GDPR costituisce un punto avanzato nella tutela dei dati personali ed è importante che sia l’Europa a indicare lo standard di protezione al mondo.
Va riconosciuto il ruolo svolto dal Garante europeo della protezione dei dati Giovanni Buttarelli e, in Italia, il prezioso lavoro svolto dall’Autorità presieduta dal Presidente Soro. Restano due temi da sviluppare.
Il primo è quello di insistere per approvare anche la direttiva e-privacy entro il 2019, perché occorre coprire anche il tema del trattamento dei dati non strutturati che vengono estratti in via occasionale, frammentata e al di fuori da transazioni nelle quali può esser concesso o negato il consenso.
Questa adesso è la nuova frontiera dei big data e va al di là del GDPR: il tema dell’estrazione e del trattamento di dati non strutturati, che siano non replicabili e non riconducibili ad una espressa transazione con il fornitore del servizio.
In secondo luogo, e arriviamo così a temi più vicini alle competenze Agcom, il tema rilevante nella vicenda CA non è solo e tanto l’estrazione di dati, spesso estratti con il consenso dell’utente, ma l’utilizzo per fini di commercializzazione economica e politica non autorizzati e soprattutto non riconoscibili in quanto tali.
E questa è un’altra frontiera di riflessione: gli usi ammissibili e la trasparenza delle finalità e delle relazioni commerciali che sottostanno alle comunicazioni che si ricevono, a vario titolo, sui social e in generale sul web.
Un tema che riguarda il mercato dell’attenzione, la raccolta pubblicitaria e la misurazione dell’attenzione sul web, le strategie di disinformazione e di propaganda politica.
E’ possibile influenzare il voto con la manipolazione, specie sul web?
Con una battuta si potrebbe dire che il fiorente mercato della profilazione e della raccolta pubblicitaria sul web non esisterebbe se non vi fosse una forte e comprovata relazione tra framing dell’informazione, profilazione dell’utente e sua risposta agli stimoli.
D’altra parte proprio il doppio filtro tra preferenze dell’utente ed efficienza degli algoritmi della profilazione rivela anche possibili effetti di reverse causality: si sceglie qualcosa o si risponde meglio ad una sollecitazione proprio perché risponde a preferenze pre-esistenti piuttosto che ad un effetto di manipolazione. Ciò vale per la scelta di un prodotto ma anche per il voto.
Detto ciò, il tema è molto complesso e le analisi empiriche sugli impatti individuali e aggregati sono appena agli inizi. Uno dei pochi lavori empirici, pubblicato da Gentzkow e da altri dimostra che l’effetto di strategie di manipolazione sul web dovrebbe corrispondere ad effetti pari a diverse decine di spot televisivi.
Tuttavia proprio per studiare la rilevanza di questi possibili effetti, occorrerebbe che le piattaforme web rendessero disponibili a soggetti terzi e indipendenti i dati di cui dispongono per procedere ad analisi empiriche che possano rilevare i fenomeni con attendibilità e significatività statistica.
Una corposa letteratura empirica mostra gli effetti dei media tradizionali sull’affluenza alle urne e in alcuni casi sulla correlazione tra linea editoriale dell’emittente televisiva e scelte elettorali (come ad esempio lo studio su Fox News dell’economista Stefano Della Vigna).
E’ urgente studiare questi fenomeni e fornire indicazioni valide e affidabili ai decisori politici.
L’Agcom, di cui è Consigliere, ha riattivato il tavolo tecnico per la Governance del pluralismo e della correttezza dell’informazione sulle piattaforme digitali e ha chiesto informazioni a Facebook sulla rilevazione di attività di disinformazione organizzata diretta agli utenti italiani. Qual è stata la risposta?
La collaborazione, al momento, è seria e siamo soddisfatti delle linee di comunicazione continue che siamo riusciti ad attivare con Google e Facebook, in un percorso che resta di autoregolazione e di moral suasion. Facebook si è impegnata a fornire entro il mese di aprile , in diversi momenti successivi, le varie tipologie di informazioni che AGCOM ha richiesto relativamente al caso CA, ma non solo, facendo riferimento a varie possibili strategie di disinformazione nel corso di campagne elettorali.
Analoghi approfondimenti saranno richiesti a Google. Siamo interessati anche a capire gli effetti delle misure di autoregolazione che sono state adottate nel corso dell’ultima campagna elettorale.
A valle di questo percorso faremo le nostre valutazioni che confluiranno nell’analisi congiunta sui big data (che abbiamo attivato con il Garante Privacy e l’Antitrust), in particolare sul tema ‘big data e pluralismo’.
Quali, a suo giudizio, le misure che le piattaforme possono adottare affinché non si ripeta un altro caso Cambridge Analytica?
Sono possibili misure di diverso tipo e a diversi livelli. L’Agcom le indicherà compiutamente entro il mese di maggio, anche in vista di una segnalazione al Parlamento per possibili iniziative legislative che diano ad Agcom almeno il potere di inspection su dati e algoritmi in relazione a strategie di disinformazione e agli effetti sull’ “attenzione” e sulla misurabilità dell’audience sul web, ovviamente rispettando quelle richieste di riservatezza giudicate legittime.
Un punto essenziale è la trasparenza su origini dell’informazione, sulle ragioni per le quali una certa informazione viene proposta in una certa gerarchia, sui contratti di raccolta pubblicitaria che sono associati a quell’informazione.
Altre misure possono riguardare l’uso e l’identificazione di account dormienti, falsi, automatizzati e così via. Inoltre occorre riflettere sulla possibilità degli utenti di essere posti al riparo di determinate strategie di disinformazione con finalità di phishing, nudging e così via.
Oltre la metà degli italiani accede all’informazione online attraverso fonti algoritmiche. È uno dei dati del Rapporto sul consumo di informazione stilato dall’Autorità per le garanzie nelle comunicazioni e basato su un’indagine condotta nel 2017.
Si è un dato crescente che si accompagna all’uso ancora rilevante di radio e tv. Per questa ragione si pone oggi un tema nuovo, che potremmo definire di ‘pluralismo 2.0’ basato non più sul concetto di pluralismo esterno (cioè sulla concorrenza tra fonti informative dal lato dell’offerta) ma sul concetto di pluralismo non distorto da strategie di disinformazione che insistono sul lato della domanda profilata, prigioniera di camere d’eco e di polarizzazione.
E’ una nuova frontiera della riflessione sul pluralismo e sul diritto a ricevere una informazione corretta e non manipolata che non guarda solo alle dinamiche dell’offerta ma alla fragilità della domanda. Non servono interventi paternalistici, ma azioni che liberino la domanda, il più possibile, da strategie di disinformazione spesso non riconoscibili.
E’ dei giorni scorsi l’annuncio di un clamoroso accordo tra Sky e Mediaset e su Twitter, lei ha riposto ad un utente che le poneva il quesito «Analizzeremo (e valuteremo) ciò che viene definito come “accordo”». Come potrebbero cambiare l’offerta e gli equilibri del panorama televisivo italiano e quali sono i rischi da evitare?
Si tratta di accordi di natura commerciale che in ogni caso interessano operatori concorrenti nei due mercati rilevanti della tv in chiaro e a pagamento.
A fronte dei benefici per i consumatori delle rispettive piattaforme che ottengono bouquet più ricchi, si pone il tema di capire se tali comportamenti hanno effetti restrittivi su altri operatori che si affacciano al mercato dei contenuti a vario titolo e che possano identificare violazioni dell’art 43 del Tusmar, al di là delle valutazioni di altra natura che compirà l’Antitrust.
L’intervista al Prof. Antonio Nicita è di Eduardo Meligrana