skip to Main Content

L’Intelligenza artificiale agentica: nuova infrastruttura di sistema tra diritto, mercati e sovranità strategica

Nell’ambito della quinta edizione degli Stati Generali del Diritto di Internet e della Intelligenza Artificiale, tenutasi presso la Luiss dal 27 al 29 novembre 2025, abbiamo avuto l’opportunità di intervistare Sabino Titomanlio, Direttore Business & Data Intelligence di FiberCop.

Sabino Titomanlio è Director Business & Data Intelligence di FiberCop, l’operatore infrastrutturale di telecomunicazioni wholesale con la rete in fibra ottica più capillare in Italia. Rappresenta inoltre FiberCop nell’iniziativa italiana in risposta alla call EuroHPC per le AI Gigafactories. Manager con una esperienza più che trentennale in settori ad altissima intensità tecnologica: dall’aerospazio, dove ha lavorato in programmi europei per Airbus Defence & Space ed Eutelsat, alla smart mobility, guidando la trasformazione digitale e l’avviamento della convergenza di grandi infrastrutture di trasporto (Movyon/Autostrade per l’Italia) verso gli ambiti smart city. Nell’ambito delle telecomunicazioni infrastrutturali, ha fatto parte del management team che ha guidato la fase di scale up di Open Fiber negli anni 2018-2022, con la responsabilità dei processi commerciali, fondando lo Innovation Lab di Open Fiber, primo ad introdurre tecniche di Machine Learning per la previsione del mercato della domanda di servizi in fibra ottica in Italia.

 

 

1. L’Intelligenza Artificiale sta evolvendo verso sistemi “agentici”, capaci di agire e coordinare processi. Che cosa cambia, in concreto, per imprese e istituzioni?

L’evoluzione verso sistemi agentici segna un mutamento strutturale rispetto all’Intelligenza Artificiale
descrittiva o generativa. Non siamo più di fronte a meri strumenti di supporto cognitivo o di assistenza
testuale, ma a veri e propri sistemi capaci di incidere direttamente su processi produttivi, infrastrutture
critiche e servizi pubblici essenziali. Cambia la natura intrinseca della tecnologia e, di conseguenza,
si ridefinisce il perimetro della responsabilità giuridica e operativa.
Finché l’Intelligenza Artificiale produceva contenuti, analisi o suggerimenti, restava un sofisticato
strumento di collaborazione uomo-macchina. Con l’evoluzione verso sistemi agentici diventa invece
infrastruttura decisionale: il sistema osserva l’ambiente, interpreta i segnali, coordina le variabili e
agisce nel mondo reale con un grado di autonomia senza precedenti. Questo passaggio comporta una
radicale ridefinizione della governance. Il quadro europeo, a partire dall’AI Act, ha introdotto un
modello di regolazione ex ante fondato sulla valutazione del rischio, la tracciabilità, la
documentazione continua e il controllo umano lungo l’intero ciclo di vita del sistema. Tuttavia, l’AI
agentica rende evidente che la conformità non può essere circoscritta al solo modello algoritmico o
al codice sorgente.
L’affidabilità di un sistema capace di agire dipende dall’intero ambiente operativo: dalla qualità del
dato alimentante alla continuità delle reti, dalla stabilità dell’infrastruttura alla resilienza energetica.
L’Intelligenza Artificiale, in questa prospettiva, deve essere considerata un’architettura di sistema
complessa. La gestione del rischio, coerentemente con la direttiva NIS2 e con il Cyber Resilience Act,
deve quindi necessariamente estendersi alle infrastrutture fisiche e digitali che sostengono l’azione
automatizzata. La trasformazione a cui assistiamo è dunque istituzionale prima ancora che
tecnologica: si amplia il perimetro della responsabilità oggettiva e si rafforza l’interdipendenza tra
diritto, infrastrutture critiche e modelli di AI.

 

2. Il concetto di “sovranità del dato” è sempre più citato nel dibattito pubblico. Che cosa significa davvero, oltre gli slogan?

Con l’avvento dell’AI agentica, il dato non è più soltanto un bene statico da proteggere o un oggetto di
privacy: esso diventa il presupposto ontologico della decisione automatizzata. Il ciclo dato–inferenza–
azione si pone oggi come il centro nevralgico della nuova economia digitale e della geopolitica
tecnologica. Chi governa l’infrastruttura del dato governa l’Intelligenza Artificiale stessa.
La sovranità non è una postura difensiva o protezionistica. È una scelta strategica vitale che riguarda
la capacità di un sistema economico e di uno Stato di mantenere il controllo effettivo sui propri
processi decisionali. In tale contesto, la prossimità del calcolo (Edge ed Early Computing) diventa una
forma concreta di sovranità tecnologica: riduce le dipendenze strutturali da fornitori terzi e rafforza
l’autonomia industriale. In un’economia guidata dall’AI, la sovranità del dato coincide sempre più con

la capacità di governare le infrastrutture fisiche che lo rendono operativo, richiedendo una capacità
effettiva di controllare localizzazione, elaborazione, giurisdizione e continuità del trattamento.
Il Data Act e il più ampio impianto europeo in materia di governance mirano proprio a riequilibrare le
asimmetrie di potere lungo la catena del valore digitale. Con l’AI agentica, tuttavia, il dato non è più
soltanto un oggetto di scambio o protezione: diventa il presupposto dell’inferenza e quindi della
decisione esecutiva. Tale sovranità non si esaurisce nella tutela del dato personale, ma investe i dati
industriali, operativi e confidenziali che alimentano i modelli decisionali delle imprese. Elaborare dati
in prossimità del luogo in cui vengono generati assume una valenza giuridica fondamentale: rafforza il
controllo, riduce le vulnerabilità sistemiche e consente una coerenza granitica con la disciplina
europea, diventando un pilastro di politica industriale come delineato dalla recente Risoluzione del
Parlamento Europeo sulla sovranità tecnologica.

 

3. In Europa stanno nascendo iniziative come la call per le AI Gigafactories, a cui l’Italia sta
lavorando con una proposta nazionale. Perché sono strategiche?

Il supercalcolo è oggi, a tutti gli effetti, un’infrastruttura geopolitica di primo ordine. Senza una capacità
autonoma di calcolo ad alte prestazioni, l’Europa rischierebbe una dipendenza strutturale
permanente nello sviluppo dei modelli fondativi e delle applicazioni industriali strategiche. Il Rapporto
Draghi ha richiamato con forza la necessità di investimenti coordinati in tecnologie abilitanti per
recuperare competitività globale, mentre il Rapporto Letta ha sottolineato che il mercato unico deve
evolvere per sostenere infrastrutture strategiche comuni.
La Risoluzione del Parlamento Europeo del 22 gennaio 2026 sulla “Sovranità tecnologica europea e
infrastrutture digitali” ha segnato un punto di svolta. È stato riconosciuto che oltre l’80% delle
infrastrutture digitali europee dipende attualmente da fornitori extra-UE, rendendo necessaria una
strategia strutturata per ridurre tale dipendenza. Il concetto di “Eurostack”, promosso nella
Risoluzione, sintetizza questa visione: un ecosistema integrato europeo che comprende
semiconduttori avanzati, cloud sovrano, Intelligenza Artificiale e software open-source.
Le AI Gigafactories rappresentano la principale risposta operativa a questa diagnosi: costruire
capacità sovrana di calcolo per sostenere competitività e sicurezza industriale, sviluppando una
capacità autonoma di addestramento di modelli fondativi. La proposta nazionale italiana nella call
EuroHPC si colloca in questa chiave multilivello: garantire una capacità centrale di addestramento
integrata con infrastrutture nazionali diffuse. L’Europa sta perseguendo un modello in cui potenza e
regolazione avanzano in modo sinergico. L’AI Act, la NIS2 e il Data Act sono strumenti che rendono lo
sviluppo tecnologico compatibile con i concetti di responsabilità e affidabilità. La potenza senza
governance genera dipendenza; la governance senza potenza genera inesorabilmente irrilevanza.

 

4. A livello internazionale stiamo assistendo all’emergere di nuovi attori e a una competizione
crescente tra operatori di telecomunicazioni e grandi hyperscaler. Come sta cambiando questo
equilibrio?

L’ecosistema dell’Intelligenza Artificiale è intrinsecamente multilivello. Accanto agli hyperscaler
globali operano cloud provider tradizionali, neocloud specializzati in workload ad alte prestazioni e
sviluppatori di LLM sovrani sostenuti da politiche pubbliche. In questo scenario assumono un ruolo
strutturale gli operatori di infrastrutture di telecomunicazioni di sistema, in particolare i wholesaler,
che custodiscono e gestiscono le principali infrastrutture fisiche distribuite su cui poggia l’intero
ecosistema digitale.
La competizione non si gioca più solo sulla disponibilità di GPU, ma sulla qualità dell’architettura
complessiva: potenza di calcolo, capillarità delle reti, continuità operativa e sostenibilità energetica.
L’AI agentica introduce vincoli di latenza e resilienza che mettono in discussione il modello di cloud
esclusivamente centralizzato dominante nell’ultimo decennio. Emerge inoltre una variabile spesso
trascurata: l’energia. I grandi poli centralizzati concentrano potenza ma anche consumi energetici
elevatissimi e sistemi di raffreddamento complessi, rendendo la sostenibilità energetica una variabile
geopolitica.
In questo equilibrio, gli operatori di infrastrutture di telecomunicazioni di sistema, rappresentano un
elemento essenziale per distribuire l’intelligenza sul territorio. La recente Risoluzione europea invita
la Commissione a mappare sistematicamente le vulnerabilità della catena del valore digitale,
evidenziando come la concentrazione infrastrutturale possa costituire un fattore di rischio sistemico.
Il ruolo delle telco si ridefinisce: non più meri fornitori di connettività, ma gestori di infrastrutture
distribuite che abilitano la prossimità dell’inferenza. La competizione si sposta verso la qualità
dell’architettura integrata: potenza, distribuzione, sostenibilità e controllo giuridico.

 

5. Lei sostiene che “la potenza da sola non basta”. Perché la sola disponibilità di calcolo non è
sufficiente a sostenere l’AI del futuro?

Perché la potenza computazionale, intesa come forza bruta di calcolo, non garantisce di per sé
l’affidabilità operativa richiesta dai processi critici. L’AI del futuro è distribuita, pervasiva e operante in
tempo reale: interviene nella produzione industriale, nelle reti energetiche, nei sistemi urbani e nei
servizi sanitari. Un modello esclusivamente remoto presenta limiti strutturali insormontabili: latenza
variabile, saturazione delle reti e concentrazione dei carichi energetici.
Entro il 2030, miliardi di dispositivi intelligenti genereranno inferenze continue. Se ogni decisione
dovesse essere elaborata in poli centralizzati distanti migliaia di chilometri, la pressione sulle reti e sui
sistemi energetici diventerebbe insostenibile, aumentando la fragilità del sistema. La qualità tecnica
dell’infrastruttura determina la qualità della decisione automatica. Un’AI potente ma distante rischia
di essere fragile e inefficiente per applicazioni mission-critical.
Il vero nodo strategico è l’integrazione tra supercalcolo centrale e infrastruttura diffusa: il centro abilita
lo sviluppo dei modelli, ma il territorio rende tale abilitazione operativa e sicura. La potenza è
necessaria per l’addestramento, ma la prossimità è la condizione di efficacia per l’inferenza operativa.
Qui emerge il ruolo dei telco wholesaler di sistema: infrastrutture capillari e progettate per la resilienza
diventano il presupposto per rendere l’AI realmente affidabile e compatibile con le esigenze
dell’industria 5.0.

 

6. Quali infrastrutture servono per rendere possibile un’Intelligenza Artificiale davvero “vicina”
ai territori, e perché questo tema è particolarmente rilevante per l’Italia?

Servono infrastrutture ibride capaci di integrare trasporto ed elaborazione dei dati. Ciò richiede reti ad
alta capacità, bassa latenza e prestazioni prevedibili, integrate con nodi territoriali distribuiti capaci di
ospitare capacità di calcolo in prossimità della domanda. L’edge computing non è semplicemente uno
spostamento fisico di server: è la costruzione di micro-ambienti di calcolo integrati nella rete, capaci
di coordinare agenti locali e filtrare dati confidenziali prima che escano dal perimetro di sicurezza
territoriale.
Questo modello distribuito favorisce un equilibrio energetico migliore, riducendo le concentrazioni di
calore e consumo tipiche dei mega data center. In questo scenario, gli operatori telco di sistema
diventano parte integrante dell’architettura stessa dell’IA. La rete diventa, di fatto, il primo livello della
governance tecnologica. Un’architettura efficace richiede l’integrazione tra: supercalcolo centrale,
nodi distribuiti per l’inferenza, reti ad altissima capacità, infrastrutture energetiche adeguate e
standard di sicurezza informatica d’eccellenza.
Per l’Italia, caratterizzata da un tessuto produttivo policentrico con milioni di PMI e distretti industriali
diffusi, la distribuzione dell’intelligenza assume un valore strategico vitale. L’accesso omogeneo a
capacità di inferenza di prossimità può generare nuove opportunità economiche e servizi territoriali
avanzati. Quando l’intelligenza si avvicina ai territori, il valore generato resta nei territori, proteggendo
il segreto industriale e promuovendo l’innovazione locale. In questa prospettiva, le infrastrutture di
rete non sono un mero supporto tecnico, ma il pilastro fondante della governance dell’Intelligenza
Artificiale, in piena coerenza con la traiettoria europea verso un ecosistema digitale integrato, sovrano
e resiliente.

Back To Top