skip to Main Content

Le imprese rischiano di farsi la propria Costituzione algoritmica

di Oreste Pollicino, socio fondatore di IAIC

In Europa non c’è il rischio di un’eccessiva regolazione. È il rischio opposto. Ma la semplificazione, quando non è accompagnata da chiarezza e stabilità, moltiplica l’incertezza. Così di fronte a un quadro regolatorio percepito come instabile, molte grandi organizzazioni stanno cambiando strategia. Non contestano l’AI Act. Lo aggirano funzionalmente

 

C’è un rischio che oggi viene sottovalutato nel dibattito europeo sull’Intelligenza Artificiale. Non è il rischio di un’eccessiva regolazione. È il rischio opposto: che la confusione sul senso e sulla direzione dell’AI Act spinga le imprese più strutturate a smettere di aspettare l’Europa.

Negli ultimi mesi, il discorso pubblico sull’AI Act si è progressivamente spostato. Dalla domanda “come rendere effettivi gli obblighi” si è passati a un’altra, più ambigua: come semplificarli.
Una domanda legittima, ma pericolosa se posta nel modo sbagliato. Perché la semplificazione, quando non è accompagnata da chiarezza e stabilità, non riduce l’incertezza: la moltiplica.

La vera frattura: obblighi ad alto rischio e governabilità reale

Il cuore dell’AI Act non è – e non è mai stato – la quantità di obblighi. È la sua architettura: un sistema che distingue, seleziona, pondera il rischio e chiede alle organizzazioni di governare l’AI prima ancora che di difendersene. In questo quadro, strumenti come la classificazione dei sistemi ad alto rischio e la Fundamental Rights Impact Assessment non nascono come adempimenti formali. Nascono come dispositivi di razionalità costituzionale: servono a rendere visibile il potere algoritmico prima che produca effetti irreversibili.

 

Clicca qui per continuare la lettura

 

Back To Top