Il 18 marzo, il Prof. Alberto Gambino, Commissario italiano Ecri e Presidente di IAIC, ha…
Intelligenza artificiale, opportunità e rischi per le imprese. Intervista al Dott. Stefano da Empoli

Stefano da Empoli è Presidente dell’Istituto per la Competitività (I-Com), think tank che ha fondato nel 2005, con sedi a Roma e Bruxelles, leader in Italia e in Europa sui temi del digitale e dell’innovazione e membro di diversi network internazionali di think tank sui temi dell’innovazione e del digitale come GTIPA (Global Trade and Innovation Policies Alliance) e PromethEUs. È docente di Economia politica nell’Università Roma Tre. È autore e curatore di numerose pubblicazioni sui temi economici e dell’innovazione. I suoi libri più recenti sono “Intelligenza artificiale: ultima chiamata. Il sistema Italia alla prova del futuro” (Bocconi editore, 2019) e “L’economia di ChatGPT. Tra false paure e veri rischi” (Egea, 2023).
Collabora regolarmente con diversi giornali e siti di informazione, tra i quali HuffPost, MF-Milano Finanza, Agenda Digitale e Formiche.
È membro del comitato scientifico di diverse istituzioni e iniziative. È direttore scientifico dell’associazione La Scossa. È stato nel biennio 2018-2020 membro del gruppo di esperti sull’intelligenza artificiale (IA) costituito dal Ministero dello Sviluppo Economico con lo scopo di scrivere la Strategia italiana sull’IA. In passato, è stato direttore scientifico dell’Osservatorio sulla Politica energetica della Fondazione Einaudi di Roma (2002-2005) ed è stato ricercatore presso la Fondazione FREE (2002).
Ha svolto incarichi di studio e consulenza per istituzioni pubbliche italiane e internazionali, tra le quali il Senato della Repubblica, il Dipartimento per le Politiche Comunitarie, il Ministero dell’Ambiente e della Tutela del Territorio e del Mare, il Ministero dei Beni Culturali e l’OCSE, primarie aziende italiane ed estere e organizzazioni no profit.
il Dott. Stefano Da Empoli
In questa intervista di approfondimento, esploreremo con il Dottor Stefano Da Empoli i principali spunti emersi dal Suo intervento Intelligenza artificiale, opportunità e rischi per le imprese, curato per l’evento Stati generali del Diritto di Internet e della intelligenza artificiale.
Durante il Suo intervento Lei ha evidenziato che un passaggio dall’opt-out all’opt-in potrebbe rallentare l’innovazione e avvantaggiare solo pochi grandi player extra-europei. Quali potrebbero essere, secondo Lei, soluzioni alternative per tutelare il diritto d’autore senza penalizzare lo sviluppo dell’IA in Europa?
Credo una strada possa essere quella di incoraggiare aggregazioni di contenuti protetti da copyright per aumentarne il potere di mercato e dunque l’appetibilità per gli sviluppatori di large language models. Con il vantaggio per questi ultimi di abbattere i costi di transazione derivanti dalla necessità di dover negoziare singolarmente con ciascun produttore di contenuti. In un quadro del genere, è dunque più facile che siano raggiunti accordi tra le parti, riconoscendo un valore ai prodotti della creatività. Purché naturalmente i contenuti siano di valore e non si abbiano pretese eccessive sulla loro monetizzazione. In merito a quest’ultimo punto, c’è peraltro un trade-off da sottolineare: maggiore è la competizione sul mercato tra una pluralità di sviluppatori di modelli, grazie anche a costi ridotti degli input per il loro addestramento, più elevata è la possibilità per i detentori dei diritti di potersi rivolgere a una domanda di contenuti premium.
Da notare anche come questa strategia di creare pool di contenuti per poterli meglio valorizzare stia cominciando ad affacciarsi nei piani di alcuni Governi. Nel recentissimo “AI Opportunities Action Plan”, pubblicato dal Governo del Regno Unito a gennaio del 2025, si propone la formazione di un trust britannico di dati per l’addestramento dei modelli alimentato dalle principali istituzioni culturali nazionali, dalla British Library alla BBC. Un modo intelligente per bypassare la questione del copyright (che a differenza della UE al momento non è ben definita al di là della Manica), valorizzando i contenuti made in UK sui mercati internazionali attraverso accordi di licenza con eventuali acquirenti. Forse, se si volesse sfruttare al meglio l’enorme patrimonio culturale italiano, più che su LLM italiani si dovrebbe puntare su strumenti simili, che peraltro oltre a non implicare l’esborso di denaro pubblico (e privato) sarebbero in grado di generare reddito per le nostre principali istituzioni culturali.
Ha sottolineato che il costo dell’addestramento degli LLMs è già oggi molto elevato. Quali sarebbero, a Suo parere, gli effetti economici concreti per il mercato europeo nel caso di una regolamentazione più restrittiva sull’uso dei dati?
L’effetto principale sarebbe quello di aumentare i costi di addestramento dei modelli o, in alternativa, di diminuirne la performance, a parità di altre condizioni. Infatti, finché i dati sintetici, cioè generati artificialmente, non potranno essere utilizzati su vasta scala senza peggiorare gli output dei modelli, si dovrà fare ricorso a quelli reali. Sappiamo anche come, nonostante la produzione di dati sia aumentata esponenzialmente negli ultimi decenni, essa sia comunque una quantità finita, di fronte alle esigenze sempre maggiori degli LLMs. Soprattutto ove si considerino contenuti di qualità adeguatamente elevata.
I costi di addestramento aumenterebbero sia direttamente che indirettamente. Nel caso di una clausola di opt-in, naturalmente non ci sarebbe alcun interesse da parte del detentore di diritti a rendere i propri contenuti disponibili se non dietro il pagamento di una royalty. Tra l’altro, a seconda di come il sistema fosse immaginato (cioè se l’opzione di default fosse per tutti i contenuti di non essere soggetti a scraping, al di là dell’esistenza o meno di un legittimo detentore dei diritti su di essi), si correrebbe il rischio che anche dati potenzialmente fruibili non potessero esserlo, con un evidente nocumento per il sistema. In ogni caso, per la stragrande maggioranza dei contenuti, pensiamo ai quasi centomila libri prodotti ogni anno in Italia o alle molte migliaia di prodotti audiovisivi, il valore commerciale medio è decisamente basso, anche quando la qualità sia tutt’altro che trascurabile. Dunque, sottrarli allo scraping, purché naturalmente siano tutelati altri diritti (a partire da quello alla privacy laddove i contenuti non fossero autoriali o comunque destinati a un pubblico), non avrebbe senso economico perché, a fronte di un mancato guadagno che sarebbe irrealistico supporre in favore dei detentori del copyright, si avrebbe un sicuro danno per gli sviluppatori di modelli IA. Peraltro, come già detto, l’incentivo di questi ultimi ad acquisire dietro compenso contenuti di valore medio ma non di particolare pregio o effettivamente distintivi sarebbe comunque diminuita dai costi di transazione necessari per acquisirne i diritti d’uso. Appare evidente, infatti, che qualora i player IA fossero interessati a chiudere accordi con detentori di contenuti sarebbe per loro illogico farlo laddove il beneficio marginale fosse inferiore al costo marginale. Un caso che fatalmente condannerebbe gran parte dei contenuti potenzialmente disponibili a non poter essere comunque valorizzati, anche ipotizzando l’emersione di piattaforme specializzate di intermediazione. Dunque, nel passaggio da opt-out a opt-in, si rischierebbe di produrre più danni rispetto ai potenziali benefici. Peraltro, con il concreto rischio di non ottenere lo scopo che ci si prefigge perché, qualora le giurisdizioni extra-UE prevedessero regole meno stringenti delle nostre, gli sviluppatori di modelli IA potrebbero utilizzare dati di input non europei, salvo accordi con selezionati produttori di contenuti e per il resto bypassando i prodotti della creatività made in Europe. Dunque, oltre al danno rischieremmo la beffa di vedere i principali modelli di IA nutriti con la produzione e in ultima analisi con i valori identitari dei sistemi culturali altrui.
Il rischio di una minore inclusione di opere europee nei dataset di addestramento potrebbe avere ripercussioni sul modello culturale del nostro continente. Quali strategie suggerirebbe per garantire che l’intelligenza artificiale continui a rappresentare e valorizzare il patrimonio culturale europeo e italiano?
Credo che la strategia migliore per rappresentare e valorizzare il patrimonio culturale europeo sia creare condizioni favorevoli perché si formi un ecosistema IA di successo. Non c’è un singolo silver bullet ma un mix paziente e allo stesso tempo sufficientemente radicale di misure verticali e orizzontali. Tra le prime, un piano coordinato IA tra Commissione e Stati membri con investimenti comuni e strategie settoriali, come suggerito nel rapporto Draghi; tra le seconde, un regime giuridico speciale per startup e PMI innovative e il completamento dell’Unione dei mercati dei capitali con la nascita dell’Unione dei Risparmi e degli Investimenti, proposti dal Rapporto Letta. Pur credendo nel ruolo del pubblico nella creazione di un ecosistema IA di successo, non credo in LLM di stato o comunque significativamente finanziati con denaro dei contribuenti. La stessa DeepSeek cinese, salita di recente agli onori della cronaca per il suo LLM estremamente performante a una frazione dei costi dei rivali statunitensi, non è una creazione dello Stato o del Partito Comunista Cinese ma è l’effetto della concorrenza tra aziende private a volte ancora più agguerrita che nella Silicon Valley, un quadro descritto molto bene già nel 2018 dall’informatico e venture capitalist Kai-Fu Lee nel suo pamphlet “AI superpowers. China, Silicon Valley and the New World Order”. Per questo, sono scettico che iniziative come OpenEuroLLM, consorzio che raccoglie oltre venti centri di ricerca, imprese e istituti di calcolo ad alte prestazioni, possano avere reale successo. Se si devono impiegare soldi pubblici, meglio pensare a infrastrutture di ricerca di base come il più volte evocato CERN per l’IA, che colpevolmente fu scartato quando si delineò nel 2018 la strategia europea e anche nelle tappe successive. E su queste innescare semmai collaborazioni con startup e aziende per promuovere la crescita di un ecosistema europeo.
Se la garanzia migliore per valorizzare la cultura europea è poter contare su player tecnologici basati nel vecchio continente, un buon second best come detto potrebbe essere quello di immaginare strumenti di aggregazione di contenuti di pregio. Naturalmente, questo potrebbe avvenire a livello UE o su base linguistica e quindi principalmente nazionale. Anche se piattaforme internazionali che aggreghino contenuti avrebbero il pregio di poter giocare sullo stesso terreno di gioco dei principali sviluppatori di modelli IA, quantomeno riducendo lo squilibrio negoziale.
Ha menzionato l’importanza di accordi di licenza tra sviluppatori di IA e detentori dei diritti. Ritiene che questi accordi possano diventare uno standard di mercato? Quali potrebbero essere le condizioni più efficaci per garantire un equilibrio tra equo compenso e accesso ai dati?
Penso che l’equilibrio debba essere lasciato il più possibile al mercato, senza interventi coercitivi o l’imposizione di obblighi a trovare un accordo e, qualora non sia possibile raggiungerlo, a pagare un equo compenso ai detentori dei diritti. Come detto, se immaginassimo un ruolo per un Governo, sarebbe piuttosto quello di favorire la formazione di cluster contenutistici, con il duplice intento di aumentare l’attrattività della propria produzione culturale per l’addestramento dei modelli e di valorizzarla il più possibile (sia pure con il dovuto realismo). Il Governo potrebbe muoversi direttamente rispetto alle istituzioni culturali pubbliche, dall’Istituto Treccani alla Rai, dai principali musei agli archivi e alla Biblioteca Nazionale, promuovendo un loro coordinamento. Qualora il patrimonio non fosse già appropriatamente digitalizzato, questo sarebbe un ulteriore motivo per dare un colpo d’acceleratore. Ma un Governo sufficientemente ambizioso dovrebbe anche percorrere altre due strade: accordi internazionali con altri Paesi UE (a cominciare dalle principali potenze culturali del continente) e promozione di ulteriori aggregazioni che abbiano come protagonisti soggetti privati. Sarebbe interessante che venissero costituite piattaforme per ciascuna tipologia di produzione culturale, dalla musica all’audiovisivo, dai libri alle immagini.
Un altro ruolo che spetta ai poteri pubblici, pur astenendosi dall’intervenire direttamente sui modelli di accordo tra sviluppatori e detentori dei diritti, è quello di garantire la massima osservanza della disciplina vigente. Il che implica che il diritto di opt-out possa essere esercitato facilmente e senza incorrere in costi significativi, naturalmente salvaguardando al contempo le eccezioni previste, in particolare laddove gli scopi non siano commerciali bensì di ricerca scientifica, come recentemente ribadito in una sentenza del Tribunale di Amburgo. In effetti, quest’ultimo principio, che trae spunto dall’art.3 della Direttiva copyright, che consente l’estrazione di testo e dati per scopi di ricerca scientifica, potrebbe essere interessante per enti di ricerca e università che volessero sviluppare i propri modelli LLMs. E, aspetto potenzialmente ancora più interessante, sarebbe chiedersi se e in quale misura l’eccezione possa essere estesa anche a soggetti privati, pur qualificati come “organismi di ricerca” (come prevede l’art.70 ter della Legge sulla protezione del diritto d’autore), che utilizzassero quei dati esclusivamente per sviluppare modelli open source, rendendoli disponibili gratuitamente e senza accesso su base preferenziale ai risultati generati dalle attività di ricerca scientifica.
Considerando la forte competizione con Stati Uniti e Cina, quali interventi strategici dovrebbe adottare l’Europa per incentivare un ecosistema di IA competitivo, tenendo conto delle esigenze sia degli innovatori sia dei detentori di diritti d’autore?
Oltre alle misure già evocate per creare un ecosistema fiorente dell’IA, sono convinto che accordi tra sviluppatori dell’IA e detentori di diritti debbano andare ben oltre la monetizzazione dei dati di input in possesso di questi ultimi. Essi possono e devono, infatti, rappresentare un’occasione per acquisire competenze e tecnologia per sfruttare le opportunità offerta dall’IA per innovare la produzione culturale nelle sue diverse fasi. Pensiamo a come grazie all’IA sia possibile ricreare effetti speciali a una frazione minima del costo altrimenti necessario oppure alle infinite possibilità di combinare diverse interpretazioni di uno stesso brano musicale. O più banalmente al controllo del testo e alle attività di copywriting necessarie per promuovere un libro o un’altra opera dell’ingegno. I modelli fondazionali potrebbero anche diventare la base per sviluppare app che abilitino una fruizione innovativa del prodotto culturale. O che aiutino a scoprire più velocemente e con maggiore sicurezza proprio violazioni del diritto d’autore.
Se la direzione inevitabile è quella indicata dall’innovazione, che, ci piaccia o meno, è come sempre motore di progresso di un sistema economico e, alla lunga, anche culturale, come dimostra la doppia leadership americana iniziata nel Novecento e che continua fino ad ora, sterili contrapposizioni tra innovatori e detentori dei diritti non fanno altro che rallentare i processi di trasformazione, rendendo più arretrati gli uni e gli altri nel confronto internazionale. Dunque, tenendo conto delle difficoltà che certo ci sono in un quadro inevitabilmente variegato e dinamico e di visioni di partenza legittimamente diverse, i due fronti dovrebbero avere la maturità per capire che viaggiare insieme è meglio che marciare divisi. Si va senz’altro più lontano, soprattutto in tempi sfidanti come quelli odierni.