Dal 16 marzo entrerà in vigore il nuovo Regolamento sul rating di legalità approvato dall’Autorità…
Intervista al Dott. Fabio Bartolomeo. AI Act, normativa italiana e gestione del dato
In occasione dell’evento Stati Generali del Diritto di Internet e della Intelligenza Artificiale, spazio di confronto dedicato alle trasformazioni giuridiche, tecnologiche ed economiche indotte dalla digitalizzazione, abbiamo intervistato Fabio Bartolomeo per approfondire il rapporto tra intelligenza artificiale, dati e modelli di governance. L’intervista si inserisce nel dibattito sull’evoluzione normativa europea e nazionale in materia di AI e sulla crescente centralità del dato come infrastruttura strategica per l’innovazione.
Fabio Bartolomeo è Group Data Protection & Responsible AI Officer presso Leonardo S.p.A., dove presidia la compliance al GDPR e all’AI Act e governa i modelli di risk assessment e di accountability relativi ai trattamenti di dati e all’utilizzo dell’intelligenza artificiale. Supporta il top management nelle decisioni strategiche e promuove l’adozione di soluzioni di IA sicure, etiche e human-centric nei processi industriali e organizzativi del Gruppo.
Accanto a questo incarico, ha responsabilità anche nelle aree di comunicazione interna a matrice HR e di Health, Safety & Environment (HSE), contribuendo a integrare cultura aziendale, benessere organizzativo, sicurezza e trasformazione digitale. Il suo approccio è orientato a coniugare rigore normativo, performance e attenzione alle persone, in una visione sistemica e coerente della governance aziendale.
Svolge inoltre attività accademica come visiting professor presso LUISS Guido Carli e in altri contesti universitari, dove insegna e interviene su temi di organizzazione, digitalizzazione dei processi, data protection, governance ed etica dell’intelligenza artificiale, valorizzando un forte collegamento tra riflessione teorica ed esperienza professionale.

Il Dott. Fabio Bartolomeo
Nel dibattito sull’intelligenza artificiale si parla moltissimo di algoritmi e meno di dati. Perché, secondo Lei, la governance del dato è in realtà il vero fondamento dell’AI?
Perché l’algoritmo, da solo, non “conosce” nulla. Nell’intelligenza artificiale la conoscenza non è programmata a priori, come avviene nell’informatica tradizionale, ma viene appresa dai dati. Questo significa che la qualità, la rappresentatività, l’aggiornamento, la completezza e la tracciabilità dei dataset determinano direttamente il comportamento del sistema.
Quando parliamo di dato, inoltre, non dobbiamo limitarci al dato informativo o semantico in senso stretto. Nell’AI il dato è anche immagine, suono, segnale, pattern. Si pensi, ad esempio, alle auto a guida autonoma: l’algoritmo che governa accelerazione, frenata e traiettoria non prende decisioni solo sulla base di regole “scritte”, ma confrontando continuamente immagini e segnali della realtà contestuale con enormi quantità di dati visivi e sensoriali precedentemente registrati, etichettati e conservati. È questo patrimonio informativo che orienta le decisioni in tempo reale.
Un algoritmo sofisticato applicato a dati incompleti, distorti o non governati produrrà risultati altrettanto distorti, ma con un’apparenza di oggettività che li rende ancora più insidiosi. La data governance è quindi il vero fondamento dell’AI perché stabilisce che cosa il sistema può apprendere, come lo apprende e, soprattutto, entro quali limiti. In questo senso, la governance del dato non è un vincolo esterno, ma la condizione che consente di trasformare una tecnologia potenzialmente opaca in uno strumento affidabile, controllabile e coerente con gli obiettivi dell’organizzazione.
Lei sostiene che nell’AI il dato non sia un elemento accessorio ma una vera infrastruttura critica. In che modo una cattiva gestione dei dati può compromettere l’affidabilità e la scalabilità di un sistema di intelligenza artificiale?
Una cattiva gestione dei dati incide almeno su tre dimensioni fondamentali: affidabilità, sicurezza e scalabilità. Se i dati non sono controllati nella loro provenienza, qualità e coerenza, l’errore non resta confinato a un singolo output, ma tende a propagarsi e amplificarsi in modo sistemico, soprattutto nei modelli che apprendono in maniera continua.
Senza voler generalizzare, nell’informatica tradizionale un dato errato produce un risultato errato, tipicamente ripetibile e correggibile intervenendo sul singolo input o sulla regola che lo governa. In un sistema di AI, invece, anche un semplice sbilanciamento nei dati di addestramento può generare distorsioni diffuse, non sempre immediatamente percepibili e spesso difficili da correggere a posteriori, perché l’errore diventa parte della “conoscenza” del modello. In assenza di una solida data governance diventa inoltre impossibile ricostruire le decisioni, spiegare gli output o dimostrare la coerenza tra i fini dichiarati e i comportamenti effettivi del sistema.
Molti progetti di AI non superano la fase pilota proprio per problemi legati alla qualità e alla governance dei dati. Quali sono, a suo avviso, gli errori più frequenti che commettono oggi organizzazioni e imprese?
Gli errori più frequenti sono culturali prima ancora che tecnologici. Il primo è considerare i dati come un sottoprodotto dei processi, e non come un vero asset strategico, da progettare, misurare, governare e manutenere nel tempo.
Il secondo errore è la frammentazione delle responsabilità: in molte organizzazioni le funzioni IT, legale, HR, operations e business operano in silos, senza una visione unitaria del ciclo di vita del dato e senza una responsabilità chiara sulla sua qualità complessiva.
Il terzo errore è sottovalutare il tema dei bias, considerandolo un problema etico astratto o teorico, quando in realtà si tratta di una questione profondamente statistica e concreta, direttamente legata alla composizione e alla rappresentatività dei dataset.
Infine, molte organizzazioni investono sull’algoritmo prima di aver messo ordine nei dati, invertendo una sequenza che dovrebbe essere logica e obbligata. Non a caso, quando un’azienda si rivolge a uno sviluppatore di soluzioni di AI, dopo aver illustrato casi d’uso e benefici attesi, riceve quasi sempre la stessa domanda preliminare: quali dati avete? come sono strutturati? sono storici, completi, affidabili? È una domanda semplice, ma spesso svela tutte le fragilità a monte del progetto.
Nel Suo intervento emerge con forza il tema della cultura del dato. A Suo avviso l’Italia, rispetto ad altri mercati, a che punto si trova nello sviluppare e utilizzare efficacemente sistemi di AI?
Credo che esista una differenza culturale significativa tra l’Europa continentale, e in particolare l’Italia, e il mondo anglosassone e nordamericano. La nostra tradizione decisionale è storicamente meno basata sul dato quantitativo e più su valutazioni qualitative, interpretative, talvolta intuitive. Siamo più inclini ai giudizi che ai punteggi, alle valutazioni discorsive che alle metriche standardizzate.
Questo approccio ha indubbi punti di forza in termini di creatività, capacità critica e sensibilità umanistica, ma può diventare un limite in un contesto in cui l’AI richiede sistematicità, misurabilità e continuità nella raccolta dei dati. Altre culture hanno costruito politiche pubbliche, modelli aziendali e sistemi di valutazione fortemente basati sul dato, accumulando per anni enormi quantità di informazioni, spesso ben prima che l’AI fosse matura dal punto di vista tecnologico e di mercato.
È come se, mentre si progettava il motore, qualcuno avesse iniziato ad accumulare carburante. I grandi protagonisti dell’AI contemporanea hanno “messo fieno in cascina”, costruendo archivi di dati enormi che oggi alimentano modelli sempre più potenti. Molto spesso questi dati, questa linfa vitale dell’AI l’abbiamo fornita noi, navigando su internet e utilizzando le App.
In Italia la situazione si presenta a doppia velocità. Esistono eccellenze industriali, accademiche e pubbliche con una solida tradizione statistica e ingegneristica che stanno affrontando l’intelligenza artificiale in modo strutturato e consapevole. Allo stesso tempo, nel tessuto medio delle organizzazioni persiste una debole cultura del dato: raccolta discontinua, scarsa integrazione tra sistemi e una limitata capacità di trasformare l’informazione in decisione operativa e strategica. Il problema, dunque, non è il talento tecnico – che nel nostro Paese non manca – quanto piuttosto la capacità organizzativa di rendere il dato una componente naturale, continua e quotidiana dei processi decisionali.
A questo si aggiunge un ulteriore elemento strutturale: quell’intreccio diffuso di piccole e medie imprese che per decenni ha rappresentato uno dei principali punti di forza del sistema produttivo italiano, nel caso dello sviluppo dell’AI costituisce spesso un freno. La frammentazione dimensionale e organizzativa rende infatti più difficile costruire una base dati critica minima, stabile e sufficientemente ampia, necessaria per alimentare sistemi di intelligenza artificiale realmente efficaci, affidabili e scalabili. In questo contesto, la sfida non è rinnegare il modello delle PMI, ma accompagnarlo verso forme di integrazione, condivisione e governance del dato che ne preservino il valore, rendendolo compatibile con le logiche dell’AI.
Alla luce dell’AI Act e della normativa italiana, possiamo dire che oggi governare i dati non è solo una scelta tecnologica ma anche una responsabilità etica e strategica?
Assolutamente sì. L’AI Act e la normativa italiana chiariscono in modo inequivocabile che dati di alta qualità e pratiche di governance adeguate non sono opzionali, soprattutto nei sistemi ad alto rischio. Governare i dati significa prevenire discriminazioni, garantire sicurezza, assicurare trasparenza e rendere l’innovazione compatibile con i diritti fondamentali delle persone.
Si tratta quindi di una responsabilità etica, perché l’AI incide concretamente sulla vita, sul lavoro e sulle opportunità degli individui, ma anche di una responsabilità strategica, perché la fiducia degli stakeholder e la sostenibilità dei modelli di business dipendono sempre più dalla capacità di dimostrare controllo e affidabilità.
In questo quadro, è centrale anche il tema dell’impatto dell’AI sul lavoro. La normativa italiana, in particolare, dedica grande attenzione al monitoraggio degli effetti dei sistemi di intelligenza artificiale sull’organizzazione del lavoro, sulle competenze e sulle condizioni delle persone. L’obiettivo non è impedire l’innovazione, ma governarla affinché si affermi una trasformazione del lavoro, e non una sua distruzione indiscriminata, sempre nel rispetto dei diritti fondamentali.
In questo senso, una solida data governance non frena l’innovazione: la rende possibile, scalabile e legittima.





