In occasione della pubblicazione di Cybersecurity e Istituzioni Democratiche. Un’indagine interdisciplinare: Diritto, Informatica e Organizzazione Aziendale,…
Oreste Pollicino: intelligenza artificiale e regole europee, perché le imprese devono trovare una bussola interna
L’intelligenza artificiale rappresenta una delle sfide più complesse per l’Unione europea. Il problema non riguarda soltanto la dimensione tecnologica – dove il divario con Stati Uniti e Cina rimane significativo – ma soprattutto la capacità del diritto europeo di confrontarsi con un’innovazione che evolve con una velocità senza precedenti. Su questo tema si è soffermato Oreste Pollicino, Professore di Diritto della regolamentazione dell’intelligenza artificiale alla SDA Bocconi School of Management e socio fondatore di IAIC, intervenendo nel corso dell’AI Festival di Milano. Secondo Pollicino, il dibattito europeo sull’AI pone una questione preliminare: «abbiamo davvero bisogno di tutta questa ipertrofia normativa?».
Negli ultimi anni il numero di documenti, dichiarazioni e carte dedicate ai diritti digitali è cresciuto in modo significativo. Il Berkman Center di Harvard ha censito oltre novanta dichiarazioni sui diritti e i doveri legati a Internet, alle quali si sono aggiunti ulteriori documenti relativi all’intelligenza artificiale. L’obiettivo di rafforzare la tutela dei diritti fondamentali nello spazio digitale è certamente condivisibile; tuttavia, come ha osservato Pollicino, la proliferazione di principi e carte rischia di generare sovrapposizioni e potenziali conflitti tra diversi livelli normativi. In questo contesto emerge quello che il giurista definisce un possibile “respiro corto” del diritto. Il problema, infatti, non riguarda soltanto la quantità delle norme, ma anche la loro capacità di adattarsi alla rapidità dell’innovazione tecnologica. Il diritto tende inevitabilmente a reagire ai cambiamenti piuttosto che anticiparli, e nel caso dell’intelligenza artificiale questa dinamica appare ancora più evidente. Un esempio emblematico è rappresentato dall’AI Act, il regolamento europeo entrato in vigore nel 2024 e destinato a diventare pienamente operativo nel 2026.
Pur rappresentando un passaggio fondamentale nella regolamentazione dell’intelligenza artificiale, la normativa deve confrontarsi con un contesto tecnologico in continua evoluzione. Non sorprende, dunque, che la Commissione europea abbia già avviato un processo di revisione e semplificazione attraverso il cosiddetto Digital Omnibus, un pacchetto che interviene sull’ecosistema normativo digitale – dal GDPR al Data Act fino allo stesso AI Act – con l’obiettivo di ridurre gli oneri burocratici e facilitare l’adeguamento da parte delle imprese, in particolare delle piccole e medie aziende. Tuttavia, secondo Pollicino, questi continui aggiustamenti possono generare anche un certo disorientamento tra imprese e istituzioni. Proprio per questo motivo, il giurista invita le aziende europee a non limitarsi a un approccio puramente difensivo alla compliance. «La bussola non può essere soltanto esterna», ha osservato.
In altre parole, le imprese non possono semplicemente inseguire l’evoluzione delle norme, ma devono sviluppare modelli interni di governance dell’intelligenza artificiale. Secondo Pollicino, ciò implica il passaggio da una compliance di tipo reattivo a una forma di “governance adattiva”. In questa prospettiva, le aziende dovrebbero sviluppare una vera e propria dimensione costituzionale interna, capace di tradurre i principi generali della regolamentazione – come human in the loop, trasparenza e responsabilità – in linee guida operative coerenti con il proprio modello di business. Questo processo richiede anche una struttura organizzativa capace di coordinare competenze diverse. La gestione dell’intelligenza artificiale, infatti, non può essere confinata a un singolo dipartimento, ma deve coinvolgere in modo trasversale funzioni come il settore legale, l’IT, la compliance e le risorse umane.
Un ulteriore elemento centrale riguarda il tema del risk assessment. Come sottolinea Pollicino, la valutazione del rischio, in particolare rispetto all’impatto sui diritti fondamentali, sta diventando una componente sempre più importante nella governance dell’intelligenza artificiale. Non si tratta soltanto di adempiere agli obblighi previsti dall’AI Act per i sistemi ad alto rischio, ma di sviluppare strumenti capaci di orientare le decisioni aziendali nel medio e lungo periodo. Nel corso del suo intervento, Pollicino ha richiamato anche alcune riflessioni storiche sul rapporto tra diritto e tecnologia. Tra queste le considerazioni di Italo Calvino nelle Lezioni americane del 1985, dove lo scrittore descriveva il rapporto tra la leggerezza del software e la pesantezza dell’hardware. Oggi questa tensione si riflette nella relazione tra la dimensione immateriale del digitale e il peso strategico delle infrastrutture tecnologiche.
Un altro riferimento citato dal giurista riguarda il dibattito sviluppatosi negli anni Novanta sul diritto del cyberspazio. In particolare, il giudice statunitense Frank Easterbrook sollevò una questione destinata a segnare il dibattito giuridico sulle nuove tecnologie: è necessario sviluppare regole specifiche per ogni innovazione tecnologica oppure è preferibile adattare le categorie giuridiche esistenti? Secondo Pollicino, questa domanda rimane ancora oggi estremamente attuale. In questo senso, la Costituzione italiana offre un esempio significativo di flessibilità normativa. L’articolo 2 riconosce infatti i diritti inviolabili della persona attraverso una clausola aperta, che consente al sistema giuridico di accogliere nel tempo nuovi diritti senza irrigidirsi. La sfida dell’intelligenza artificiale, quindi, non riguarda soltanto la produzione di nuove regole, ma la capacità di sviluppare modelli di governance capaci di orientarsi in un contesto tecnologico in continua evoluzione. In questo percorso, accanto al quadro normativo europeo, assume un ruolo sempre più importante la responsabilità delle organizzazioni nel definire strumenti interni di gestione e valutazione dell’impatto delle tecnologie.





