skip to Main Content

Oreste Pollicino, l’Intelligenza Artificiale e il rischio di un Leviatano chiamato Tecnocrazia

 Jacopo Paoletti

 28 aprile 2025

Oreste Pollicino discute di IA, diritto e futuro democratico. Analisi su disinformazione, privacy e nuove forme di sovranità digitale.

 

Oreste Pollicino è una delle voci più autorevoli e ascoltate in Europa sul rapporto tra diritto, tecnologia e democrazia. Professore ordinario di Diritto Costituzionale e regolazione dell’Intelligenza Artificiale presso l’Università Bocconi di Milano, dirige il LL.M. in Law of Technology and Automated Systems, è co-direttore del centro di ricerca RULES e Socio fondatore di IAIC. È anche presidente del Centre on Digital Constitutionalism and Policy (DICOPO) con sede a Bruxelles e rappresenta l’Italia presso l’Agenzia dell’Unione Europea per i Diritti Fondamentali.

Nato a Messina nel 1975, si è laureato in Giurisprudenza presso l’Università di Messina e ha conseguito un LL.M. al College of Europe di Bruges. Avvocato cassazionista, è fondatore di AIdvisory Pollicino & Partners. Ha ottenuto l’abilitazione a professore ordinario in tre diverse discipline: Diritto Costituzionale, Diritto dell’Unione Europea e Diritto Comparato.​

La sua attività accademica si concentra sul costituzionalismo digitale, la protezione dei dati, la regolazione dell’intelligenza artificiale, la cybersecuritye il diritto dei media. Ha pubblicato oltre 40 volumi e più di 300 articoli scientifici, ed è stato recentemente Fulbright scholar presso la New York University. Il suo ultimo libro, scritto con Pietro Dunn e con prefazione di Luciano Violante, si intitola “Intelligenza Artificiale e Democrazia”, edito Bocconi University Press, 2024.

A livello istituzionale, è stato nominato ’Honest Broker’ dalla Commissione Europea per la negoziazione del Codice di condotta sulla disinformazione, ed è membro del Global Partnership on Artificial Intelligence dell’OCSE, oltre ad aver partecipato ai lavori del Comitato ad hoc sull’Intelligenza Artificiale (CAHAI) del Consiglio d’Europa.​

Pollicino è noto per la sua capacità di coniugare rigore accademico e impegno pubblico, affrontando temi complessi con un approccio critico e interdisciplinare. Attraverso le sue ricerche e interventi, contribuisce al dibattito internazionale su come le tecnologie emergenti influenzano i diritti fondamentali e le strutture democratiche.

D:Oreste, tu scrivi, insegni e regoli il diritto in un mondo che non legge, non ascolta e non riconosce più l’autorità. Come si fa il giurista, oggi, senza scivolare nel ruolo di commentatore disilluso o di notaio tardivo della realtà?

R: Oggi essere giuristi significa operare in un contesto di continua disintermediazione, dove le opinioni si moltiplicano ma il senso della norma rischia di disperdersi. Il giurista non può più limitarsi a interpretare le leggi come se il mondo attorno fosse immobile. È chiamato a esercitare un ruolo critico, quasi maieutico, aiutando la società a riconoscere nelle norme un riflesso dei propri valori più profondi, non solo un insieme di comandi tecnici.

Questo richiede rigore analitico ma anche coraggio civile. Il giurista oggi è, paradossalmente, una figura di resistenza: resistenza alla semplificazione, alla algoritmizzazione dell’umano, al cinismo di chi pensa che tutto sia già deciso dai codici, quelli binari e quelli giuridici. Non siamo cronisti del tramonto, ma architetti di una transizione, se sappiamo accettare la sfida.

D: Nel 2024 hai scritto che l’AI generativa rappresenta un passaggio dall’automazione all’autonomia. Ma in un ecosistema che sfugge al controllo umano, dove inizia la responsabilità giuridica e dove finisce quella politica?

R: Il cuore della questione sta nel riconoscere che l’autonomia tecnica non può sostituire la responsabilità umana. L’AI generativa produce contenuti, prende decisioni, struttura interazioni: agisce, in un certo senso, senza bisogno dell’uomo. Ma il diritto non può ammettere una responsabilità “senza soggetto”.

La sfida è duplice: giuridica e politica. Giuridica, perché occorre adattare concetti come imputabilità, prevedibilità e colpa a sistemi che apprendono e si modificano. Politica, perché bisogna decidere chi ha titolo per stabilire i limiti, con quale legittimità e in nome di quali valori.

L’AI Act tenta di rispondere con un sistema multilivello di accountability, che parte dalla progettazione e arriva alla sorveglianza sociale. Ma senza una cultura della responsabilità condivisa, ogni legge rischia di diventare solo un manifesto.

 

 

Clicca qui per continuare la lettura

Back To Top