skip to Main Content

Intervista al Prof. Giuseppe Cassano: analisi e prospettive del recente disegno di legge sull’intelligenza artificiale in Italia

Con la bollinatura da parte della Ragioneria dello Stato, atto ufficiale prima della firma da parte del Presidente della Repubblica, a seguito della seduta n. 78 del 23 aprile 2024, all’esito della quale il Consiglio dei Ministri ha approvato il disegno di legge “Recante disposizioni e delega al governo in materia di intelligenza artificiale”, l’Italia si accinge dunque ad avere la propria fonte interna di regolamentazione organica di un settore che tanti dibattiti sta alimentando in questi ultimi tempi. In merito abbiamo intervistato il Prof. Giuseppe Cassano, giurista Direttore del Dipartimento di SCIENZE GIURIDICHE – della Innovazione, di Internet e della Intelligenza Artificiale – di Roma, Firenze e Milano della European School of Economics; Direttore degli Stati Generali di Internet e della Intelligenza Artificiale e già Docente di Istituzione di Diritto privato nell’Università LUISS di Roma e Membro del Comitato AgCOM – Autorità per le Garanzie nelle Comunicazioni – per la Intelligenza Artificiale.

 

Come il disegno di legge sull’intelligenza artificiale mira a promuovere la crescita economica del Paese mentre si affronta il rapporto con il Regolamento europeo sull’IA?

Filo conduttore dello schema di DDL in esame è la volontà di intercettare le opportunità di crescita economica e sociale che le nuove tecnologie offrono al contempo governando un fenomeno di cambiamento epocale che potrebbe, altrimenti, prestarsi ad usi impropri e dannosi, fermo restando la centralità dell’essere umano che non dovrà essere scalzato dall’intelligenza artificiale.
Una prima questione che l’interprete è chiamato a risolvere è data dal rapporto tra il Regolamento europeo sull’AI (approvato il 13 marzo 2024 dal Parlamento Europeo e ormai prossimo ad essere emanato) e il DDL nazionale: quest’ultimo, nelle intenzioni e nelle dichiarazioni del Governo, non si “sovrappone” al primo “ma ne accompagna il quadro regolatorio in quegli spazi propri del diritto interno” tanto è che al comma 2 dell’art. 1 si prevede espressamente, quanto forse ovviamente, che “le disposizioni della presente legge si interpretano e si applicano conformemente al diritto dell’Unione Europea” .
Alcune note critiche, riportate nelle pagine che seguono, hanno solo lo scopo di mettere in luce punti della normativa che possono essere migliorati giacchè si tratta di un testo destinato ad essere oggetto dei lavori parlamentari e, di conseguenza, di modifiche ed emendamenti.

 

Quali sono i principi e gli obiettivi principali delineati nella futura Legge nazionale sull’intelligenza artificiale e quali definizioni chiave vengono fornite per i concetti fondamentali, come i sistemi e i modelli di intelligenza artificiale?

Il Capo I della futura Legge nazionale sull’IA detta principi e finalità dell’intervento normativo in esame.
L’art. 1 (Finalità e ambito di applicazione) prevede che la legge reca principi in materia di “ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale” promuovendone un utilizzo “corretto, trasparente e responsabile”, in una dimensione – come detto – antropocentrica, per coglierne le opportunità e ferma restando la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali della stessa IA.
Quanto alle definizioni l’art. 2 indica cosa si intende per: a) sistema di intelligenza artificiale; b) dato; c) modelli di intelligenza artificiale.
Precisamente:
a) un sistema di intelligenza artificiale è “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”;
b) dato è “qualsiasi rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali atti, fatti o informazioni, anche sotto forma di registrazione sonora, visiva o audiovisiva”;
c) i modelli di intelligenza artificiale sono “modelli che identificano strutture ricorrenti attraverso l’uso di collezioni di dati, che hanno la capacità di svolgere un’ampia gamma di compiti distinti e che possono essere integrati in una varietà di sistemi o applicazioni”.
Il Legislatore nazionale ha qui attinto all’AI ACT (si veda la definizione di “sistema di intelligenza artificiale” di fatto sovrapponibile nei due testi) per cui si dovranno ben coordinare i due testi in modo che alle modifiche della normativa europea corrispondano anche le medesime modifiche al testo nazionale.

 

Quali sono i principi generali che guidano l’implementazione e l’utilizzo dei sistemi di intelligenza artificiale e quali misure devono essere garantite per assicurare il rispetto di tali principi?

Quanto ai principi generali l’art. 3 prescrive che tutto ciò che attiene all’IA debba avvenire nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’U.E. e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.
Inoltre sistemi e modelli di intelligenza artificiale dovranno essere sviluppati ed applicati nel rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità e della spiegabilità. Né l’IA potrà pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica.
Per garantire il rispetto di tali diritti e principi deve essere assicurata “la cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale, secondo un approccio proporzionale e basato sul rischio, nonché l’adozione di specifici controlli di sicurezza, anche al fine di assicurarne la resilienza contro tentativi di alterarne l’utilizzo, il comportamento previsto, le prestazioni o le impostazioni di sicurezza”.
Infine, ancora all’art. 3 è garantita alle persone con disabilità il pieno accesso ai sistemi di IA e alle relative funzionalità o estensioni, su base di uguaglianza e senza alcuna forma di discriminazione e di pregiudizio.

 

Quali sono le disposizioni della legge in merito all’utilizzo dei sistemi di intelligenza artificiale nell’informazione e alla tutela della riservatezza dei dati personali, soprattutto riguardo all’accesso da parte dei minori?

L’art. 4, richiamando alcuni fondamentali principi del GDPR, prescrive che l’utilizzo di sistemi di intelligenza artificiale nell’informazione avvenga senza pregiudizio alla libertà e al pluralismo dei mezzi di comunicazione, alla libertà di espressione, all’obiettività, completezza, imparzialità e lealtà dell’informazione .
Tale utilizzo deve altresì garantire il trattamento lecito, corretto e trasparente dei dati personali e la compatibilità con le finalità per le quali sono stati raccolti, in conformità con il diritto euro-unionale in materia di dati personali e di tutela della riservatezza.
Il Legislatore si è preoccupato poi di disciplinare espressamente l’accesso alle tecnologie di IA da parte dei minori .
L’accesso a tali tecnologie, da parte dei minori degli anni 14, richiede il consenso di chi esercita la responsabilità genitoriale.
Il minore degli anni diciotto, che abbia compiuto quattordici anni, può invece esprimere il proprio consenso per il trattamento dei dati personali connessi all’utilizzo di sistemi di IA, purché le informazioni e le comunicazioni siano facilmente accessibili e comprensibili.

 

Quali sono le principali finalità economiche previste in merito all’intelligenza artificiale ed allo sviluppo economico, secondo il disegno di legge?

Capitolo centrale – quello delle opportunità economiche sottese all’utilizzo dell’IA – che si declina (art. 5) in quattro punti fondamentali e precisamente nell’impegno programmatico per lo Stato, e le altre autorità pubbliche, di:
a) promuovere l’utilizzo dell’IA come strumento per migliorare l’interazione uomo-macchina nei settori produttivi e migliorare la produttività in tutte le catene del valore e le funzioni organizzative, nonché quale strumento utile all’avvio di nuove attività economiche;
b) favorire un nuovo mercato dell’IA, che dovrà essere oltre che innovativo anche “equo, aperto e concorrenziale”, e di ecosistemi innovativi;
c) facilitare la disponibilità e l’accesso a dati di alta qualità per le imprese che sviluppano o utilizzano sistemi di IA e per la comunità scientifica e dell’innovazione;
d) indirizzare le piattaforme di e-procurement delle PPAA (di cui all’art. 1, II, D.Lgs. 30 marzo 2001, n. 165) in modo che, nella scelta dei fornitori di sistemi e modelli di intelligenza artificiale, vengano privilegiate quelle soluzioni che garantiscono la localizzazione ed elaborazione dei dati critici presso data center posti sul territorio nazionale, nonché modelli in grado di assicurare elevati standard in termini di trasparenza nelle modalità di addestramento e di sviluppo di applicazioni basate su IA generativa.

 

Quali sono le aree escluse dall’ambito di applicazione del disegno di legge in esame?

Un limite all’applicazione della normativa in esame è rappresentato dalla materia della sicurezza e della difesa nazionale (art. 6).
Precisamente vengono escluse dall’ambito di applicazione del DDL in esame quelle attività svolte per scopi di sicurezza nazionale, per la cybersicurezza nazionale  e, ancora, per scopi di difesa dalle forze armate e dalle forze di polizia.

 

Quali sono le principali disposizioni riguardanti l’utilizzo dell’intelligenza artificiale nell’ambito sanitario e per le persone con disabilità?

Procediamo ora ad una prima lettura delle disposizioni di settore (Capo II) soffermandoci su sanità e disabilità.
L’art. 7 muove dall’affermazione di principio per cui l’utilizzo di sistemi di IA deve contribuire al miglioramento del sistema sanitario e alla prevenzione e alla cura delle malattie, nel rispetto dei diritti, delle libertà e degli interessi della persona, anche in materia di protezione dei dati personali.
L’IA non può selezionare e condizionare l’accesso alle prestazioni sanitarie con criteri discriminatori e al paziente è riconosciuto il diritto ad essere informato circa l’utilizzo di tecnologie di intelligenza artificiale e sui vantaggi, in termini diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie, nonché di ricevere informazioni sulla logica decisionale utilizzata.
I sistemi di intelligenza artificiale nell’ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa alla professione medica.
Si prescrive, ancora, la periodica verifica e l’aggiornamento dei sistemi di IA al fine di minimizzare il rischio di errori così da garantirne la piena affidabilità.
I sistemi di intelligenza artificiale sono altresì chiamati a migliorare le condizioni di vita delle persone con disabilità e ad agevolare l’accessibilità, l’autonomia, la sicurezza e i processi di inclusione sociale delle medesime persone anche ai fini dell’elaborazione del progetto di vita di cui all’art. 2, II, lett. a) n. 1), L. 22 dicembre 2021, n. 227.
Per il supporto alle finalità di cura, e in particolare per l’assistenza territoriale, è prevista l’istituzione di una piattaforma di IA la cui progettazione, realizzazione, messa in servizio e titolarità sono attribuite all’Agenzia nazionale per i servizi sanitari regionali (AGENAS) in qualità di Agenzia nazionale per la sanità digitale.
Tale piattaforma avrà il compito di erogare servizi di supporto:
a) ai professionisti sanitari per la presa in carico della popolazione assistita;
b) ai medici nella pratica clinica quotidiana con suggerimenti non vincolanti;
c) agli utenti per l’accesso ai servizi sanitari delle case di comunità.

 

Quali sono le disposizioni riguardanti l’utilizzo dei dati sanitari per la ricerca scientifica nel disegno di legge sull’intelligenza artificiale, e quali sono le criticità emerse in relazione a tali disposizioni?

Sono dichiarati di rilevante interesse pubblico (art. 8, I) i trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro (no profit) per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di IA per finalità di prevenzione, diagnosi e cura di malattie, sviluppo di farmaci, terapie e tecnologie riabilitative, realizzazione di apparati medicali, incluse protesi e interfacce fra il corpo e strumenti di sostegno alle condizioni del paziente, di salute pubblica, incolumità della persona, salute e sicurezza sanitaria, in quanto necessari ai fini della realizzazione e dell’utilizzazione di banche dati e modelli di base.
Al comma II si prevede espressamente che “ai medesimi fini, fermo restando l’obbligo di informativa dell’interessato che può essere assolto anche mediante messa a disposizione di un’informativa generale sul sito web del titolare del trattamento e senza ulteriore consenso dell’interessato ove inizialmente previsto dalla legge, è sempre autorizzato l’uso secondario di dati personali privi degli elementi identificativi diretti, anche appartenenti alle categorie indicate all’articolo 9 del regolamento UE n. 679/2016, da parte dei soggetti di cui al comma 1”.
Orbene detti trattamenti (cioè quelli dei commi 1 e 2 appena riportati) devono essere oggetto di approvazione da parte dei comitati etici interessati e devono essere comunicati all’Autorità garante per la protezione dei dati personali e possono essere iniziati decorsi trenta giorni dalla predetta comunicazione se non oggetto di blocco disposto dalla medesima Autorità Garante.
La norma merita una riflessione critica: da un lato, presenta un “vuoto” quanto all’ipotesi della ricerca da parte di soggetti con scopo di lucro e, dall’altro lato, deve altresì essere necessariamente coordinata con quanto prevede il “nuovo” art. 110 (Ricerca medica, biomedica ed epidemiologica), Codice della Privacy (D.Lgs. n. 196/2003) nel testo in vigore dallo scorso primo maggio.
E tale operazione di coordinamento non è affatto scontata.
Il regime autorizzatorio previsto dal DDL (per l’uso secondario dei dati medici) contrasta invero con il diritto dell’U.E. e con il richiamato (nuovo) art. 110 che non solo esclude l’approvazione del Garante (a fronte di un trattamento necessario per un interesse pubblico ovvero quando sia una legge ad attribuirgli finalità pubblica) ma ha eliminato anche la consultazione preventiva del Garante (in riferimento all’uso secondario dei dati medici sempre per ricerca medica), spettando al Garante individuare le garanzie da osservare.
Chiudono il cerchio dell’IA nella sanità le disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore sanitario e governo della sanità digitale.

 

Quali sono i principi fondamentali sottesi all’utilizzo dell’intelligenza artificiale nel contesto lavorativo, e quali misure sono previste per garantire il rispetto dei diritti dei lavoratori e massimizzare i benefici dell’IA?

Con riferimento al mondo del lavoro il DDL in esame detta il principio generale dell’antropocentrico (art. 10): l’uomo dunque non è destinato ad essere sostituito dalle macchine e all’IA è affidato il compito di migliorare le condizioni di lavoro, di tutelare l’integrità psico-fisica dei lavoratori, di accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione Europea.
Il Legislatore vuole un utilizzo dell’intelligenza artificiale in ambito lavorativo sicuro, affidabile, trasparente e che non si ponga in contrasto con la dignità umana né violi la riservatezza dei dati personali.
È così garantito non solo il diritto del lavoratore ad essere informato dell’utilizzo dell’IA ma anche l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione del sesso, dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche, ancora una volta in conformità con il diritto dell’U.E,.
Al tempo stesso è istituito presso il Ministero del Lavoro e delle Politiche Sociali l’osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro (art. 11) – presieduto dal Ministro del Lavoro e delle Politiche Sociali o da un suo rappresentante – per massimizzare i benefici e contenere i rischi derivanti dall’impiego dei sistemi di intelligenza artificiale in ambito lavorativo.
L’Osservatorio avrà il compito di:
– definire una strategia sull’utilizzo dell’IA in ambito lavorativo,
– monitorare l’impatto sul mercato del lavoro,
– identificare i settori lavorativi maggiormente interessati dall’avvento dell’IA,
– promuovere la formazione dei lavoratori e dei datori di lavoro in materia di IA.

 

Come viene regolato l’utilizzo dei sistemi di intelligenza artificiale nelle professioni intellettuali e quali misure sono previste per garantire la trasparenza verso i clienti?

Per le professioni intellettuali, l’art. 12, nei due commi che lo compongono, stabilisce che la decisione finale sia assunta dal professionista che potrà avvalersi dell’utilizzo di sistemi di IA solo per esercitare attività strumentali e di supporto alla sua attività.
Si prevede, per assicurare il rapporto fiduciario tra professionista e cliente, che le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista siano comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.

 

Quali sono gli obiettivi principali dell’utilizzo dell’Intelligenza Artificiale nella Pubblica Amministrazione e come viene garantita la trasparenza e l’autonomia decisionale degli interessati?

Si disciplina l’utilizzo dell’IA da parte della P.A. (art. 12) per
– incrementare l’efficienza degli uffici pubblici,
– ridurre i tempi di definizione dei procedimenti amministrativi,
– aumentare qualità e quantità dei servizi erogati ai cittadini e alle imprese.
Il tutto fermo restando che è assicurata agli interessati la conoscibilità del funzionamento e la tracciabilità dell’utilizzo dell’IA che avviene in funzione strumentale e di supporto all’attività provvedimentale in modo che sia garantito il rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale.

 

Come viene regolato l’utilizzo dell’Intelligenza Artificiale nell’attività giudiziaria e quali sono le principali criticità emerse da tale regolamentazione?

L’art. 14, nei suoi “soli” e “brevi” due commi che lo compongono, nelle intenzioni del Legislatore disciplina l’impatto della IA sull’amministrazione della giustizia ma, a ben vedere, riporta solo mere petizioni di principio.
La previsione (I comma) secondo cui “i sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale” è non solo eccessivamente generica ma anche priva di disposizioni cogenti che ci si aspettava di trovare nell’economia di un testo di riforma così importante.
E così il Legislatore non affronta, quanto alla giustizia penale , i temi oggi più dibattuti in riferimento alle indagini preliminari (si pensi alla “polizia predittiva” ) e, in riferimento al dibattimento, all’assunzione delle prove a mezzo dell’IA.
Il Legislatore si limita a porre il principio per cui è sempre riservata al Magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento.
Certamente è il Magistrato a decidere ma oggi il codice di rito per il processo penale già prevede le prove atipiche (art. 189 c.p.p.) che spetta al Giudice assumere se idonee ad assicurare l’accertamento dei fatti e non pregiudicano la libertà morale della persona.
E non vi è ragione di ritenere che le prove atipiche generate a mezzo di IA non si possano utilizzare al fine si assumere la decisione finale di un processo penale.
Quanto poi alla giustizia civile l’unico cenno è dato dalla previsione per cui tra le materie di competenza esclusiva del Tribunale civile si aggiungono le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale (art. 15).
È doveroso a questo punto uno sguardo all’AI ACT che, al considerando 61, riconosce che i sistemi di IA destinati all’amministrazione della giustizia dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale.
Sottolinea altresì l’opportunità, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, di classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti.
Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti.
L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei Giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana.
Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi.

 

Quali sono i principali attori, le risorse disponibili e le rispettive responsabilità nell’attuazione della strategia nazionale sull’Intelligenza Artificiale?

Con le disposizioni del Capo III il Legislatore intende disciplinare la strategia nazionale per l’IA, le autorità nazionali competenti e il delicato tema delle risorse da investire .
All’art. 17 si introduce la strategia nazionale per l’IA, predisposta e aggiornata dalla struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale, d’intesa con le Autorità nazionali di intelligenza artificiale di cui a breve parleremo e sentito il Ministro delle imprese e del made in Italy per i profili di politica industriale e di incentivazione e il Ministro della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale, ed è approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (CITD).
Si vuol così favorire la collaborazione tra le PP.AA. e i soggetti privati quanto allo sviluppo e all’adozione di sistemi di IA, il coordinamento dell’attività della P.A. in materia, la promozione della ricerca e della diffusione della conoscenza in materia di IA, anche indirizzando le misure e gli incentivi finalizzati allo sviluppo imprenditoriale e industriale dell’intelligenza artificiale.
Quanto alle cennate autorità nazionali per l’intelligenza artificiale (art. 18) esse sono l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) con il compito di garantire l’applicazione e l’attuazione della normativa nazionale ed euro-unionale in materia di IA .
Ciascuna per quanto di rispettiva competenza, assicurano – tra l’altro – l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di IA conformi alla normativa nazionale e dell’Unione europea, sentito il Ministero della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale.
Resta da chiedersi quale sia il ruolo del Garante per la privacy che non viene interessato da questa riforma che si limita a prevedere all’ultimo comma dell’art. 18 che “Restano ferme le competenze, i compiti e i poteri del Garante per la protezione dei dati personali”.

 

Come il DDL propone di sostenere i giovani e promuovere lo sport attraverso l’intelligenza artificiale, e quali requisiti sono richiesti per beneficiare del regime agevolativo per i lavoratori rimpatriati?

Il DDL in commento (art. 20) prevede che per poter beneficiare del regime agevolativo a favore dei lavoratori rimpatriati si terrà contro dell’aver svolto un’attività di ricerca nell’ambito delle tecnologie di intelligenza artificiale.
Ed altresì si favorisce l’accessibilità ai sistemi di intelligenza artificiale per il miglioramento del benessere psicofisico attraverso l’attività sportiva, anche ai fini dello sviluppo di soluzioni innovative finalizzate a una maggiore inclusione in ambito sportivo delle persone con disabilità.
Con la precisazione che i sistemi di intelligenza artificiale possono essere utilizzati anche per l’organizzazione delle attività sportive.

Quali sono le principali misure di investimento previste dal DDL per sostenere lo sviluppo delle imprese attive nei settori dell’IA, della cybersicurezza e del calcolo quantistico?

L’art. 21 è la norma dettata in tema di investimenti: in linea con la strategia nazionale e al fine di supportare lo sviluppo di imprese operanti nei settori dell’IA, della cybersicurezza, del calcolo quantistico, delle telecomunicazioni e delle tecnologie per questa abilitanti, è stanziata la somma di un miliardo di euro per l’assunzione di partecipazioni nel capitale di rischio direttamente o indirettamente, di:
a) PMI con elevato potenziale di sviluppo ed innovative, aventi sede operativa in Italia, che operano nelle tecnologie dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico e delle tecnologie per queste abilitanti, nonché nel settore delle telecomunicazioni con particolare riferimento al 5G e alle sue evoluzioni, al mobile edge computing, alle architetture aperte basate su soluzioni software, al Web 3, all’elaborazione del segnale, anche in relazione ai profili di sicurezza e integrità delle reti di comunicazione elettroniche, e che si trovano in fase di sperimentazione (seed financing), di costituzione (start up financing), di avvio dell’attività (early-stage financing) o di sviluppo del prodotto (expansion, scale up financing) ;
b) imprese, anche diverse da quelle innanzi indicate ma comunque finalizzate alla creazione e allo sviluppo di campioni nazionali nei settori e nelle tecnologie di cui si è appena detto.
Tali investimenti saranno effettuati mediante utilizzo delle risorse del Fondo di sostegno al venture capital di cui all’art. 1, comma 209, L. 30 dicembre 2018, n. 145.

 

Quali sono i principali compiti delegati al Governo riguardo all’attuazione del regolamento sull’intelligenza artificiale e alla promozione della formazione nel settore dell’IA?

Alla centralità dell’uomo, nell’economia dello schema in esame, corrisponde a ben vedere anche la centralità della delega al Governo (art. 22) chiamato così a svolgere un ruolo chiave nel guidare il Paese nella svolta verso l’IA.
In via di estrema sintesi è da rilevare come il Governo sia chiamato: a designare come autorità nazionali competenti ai fini dell’attuazione del regolamento, un’autorità di vigilanza del mercato, un’autorità di notifica, nonché del punto di contatto con le istituzioni dell’U.E.; a percorsi di alfabetizzazione e formazione in materia di IA (in particolare per i professionisti); al potenziamento dell’IA nelle scuole nelle università e nei centri di ricerca.
Il Governo è, altresì, delegato ad adottare uno o più decreti legislativi per definire organicamente la disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite.

 

Quali misure sono previste nel disegno di legge per garantire la tutela degli utenti e del diritto d’autore nelle opere generate con l’ausilio dell’intelligenza artificiale?

Il Capo IV si compone degli articoli 23 e 24 così tutelando, da un lato, gli utenti e, dall’altro lato, il diritto d’autore delle opere generate con l’ausilio dell’IA.
Si prevedono, in particolare, nell’ambito del T.U. per la fornitura di servizi di media audiovisivi , le misure volte a favorire l’identificazione e il riconoscimento dei sistemi di IA nella creazione di contenuti testuali, fotografici, audiovisivi e radiofonici.
E cioè a dire, quando un contenuto sia stato completamente, o solo parzialmente, generato, ovvero modificato o alterato dai sistemi di IA, in modo tale da presentare come reali dati, fatti e informazioni che non lo sono, dovrà presentare (a cura dell’autore o del titolare dei diritti di sfruttamento economico, se diverso dall’autore) un elemento o segno identificativo, anche in filigrana o marcatura incorporata con l’acronimo “IA” (nel caso di “audio” tale adempimento avverrà attraverso annunci audio ovvero con tecnologie adatte a consentire il riconoscimento).
Si tratta quindi di una marchiatura cui fanno eccezione l’opera o un programma manifestamente creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le libertà dei terzi.
Si rimette poi ad uno specifico regolamento dell’AGCOM il compito di dettare e definire le misure attuative.
Quanto alla tutela del diritto d’autore delle opere generate con l’ausilio di IA si incide nell’ambito della legge sul diritto d’autore (L. 22 aprile 1941, n. 633) prevedendo una disciplina specifica per le opere create con l’ausilio di sistemi di IA, assicurando l’identificazione delle opere e degli altri materiali il cui utilizzo non sia espressamente riservato dai titolari del diritto d’autore.
Ma si ha una vera “tutela del diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale”?
A ben vedere il Legislatore della riforma esclude la tutela autoriale in riferimento a quelle opere generate con l’IA (in tal senso già si sono espressi anche altri Paesi U.E. e gli USA): ciò emerge dalle modifiche che si intendono apportare all’art. 1 L. n. 633/1941.
Il primo comma oggi prevede: “Sono protette ai sensi di questa legge le opere dell’ingegno di carattere creativo che appartengono alla letteratura, alla musica, alle arti figurative, all’architettura, al teatro ed alla cinematografia, qualunque ne sia il modo o la forma di espressione”.
Se non vi saranno modifiche al DDL si avrà il seguente nuovo testo: “Sono protette ai sensi di questa legge le opere dell’ingegno <<umano>> di carattere creativo che appartengono alla letteratura, alla musica, alle arti figurative, all’architettura, al teatro ed alla cinematografia, qualunque ne sia il modo o la forma di espressione <<, anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché il contributo umano sia creativo, rilevante e dimostrabile>>” (le parti aggiunte sono riportate tra le virgolette caporali).
Quindi saranno tutelate le opere dell’ingegno umano – e tali saranno anche quelle create con l’ausilio di strumenti di IA purché il contributo umano sia creativo, rilevante e dimostrabile (da parte del titolare del diritto) – ma non le opere create esclusivamente con l’IA.
Il tutto senza dimenticare che la L. 27 dicembre 2023, n. 206 (Disposizioni organiche per la valorizzazione, la promozione e la tutela del made in Italy) ha previsto la nuova figura dei “Creatori digitali” (art. 27, I) ovvero “gli artisti che sviluppano opere originali ad alto contenuto digitale”.
Con la precisazione che “per tutelare i diritti sulle opere dei creatori digitali, con decreto del Ministro della cultura, da adottare entro novanta giorni dalla data di entrata in vigore della presente legge, è istituito un repertorio delle opere dei creatori digitali nel registro pubblico generale delle opere protette, di cui all’articolo 103 della legge 22 aprile 1941, n. 633” (art. 27, II).
Se vi è dunque un apposito repertorio è ben possibile la richiesta di registrazione di opere frutto integrale dell’IA.
Infine nel DDL in esame si prevede ancora l’introduzione del nuovo art. 70-septies (sempre nel contesto della L. n. 633/1941) secondo cui “La riproduzione e l’estrazione di opere o altri materiali attraverso modelli e sistemi di intelligenza artificiale anche generativa, sono consentite in conformità con gli articoli 70-ter e 70-quater”.
In tal modo si consente l’uso di opere protette da parte dei sistemi di IA in uso da parte degli organismi di ricerca e degli istituti di tutela del patrimonio culturale per scopi di ricerca scientifica.

 

Quali nuove disposizioni penali sono previste nel disegno di legge in relazione all’impiego dell’intelligenza artificiale, e quali reati sono interessati da queste disposizioni?

Al quinto ed ultimo capo del DDL troviamo le disposizioni penali, e non poche sono le novità in arrivo. Filo conduttore è il contrasto dell’abuso dell’IA.
Si registra (art. 25) in primis una nuova aggravante (art. 61, I, n. 11-decies) consistente nell’avere “commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato”.
Poi ancora si prevede:
b) in tema di sostituzione di persona (art. 494 c.p.) che “La pena è della reclusione da uno a tre anni se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale”;
c) in tema di rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio all’articolo all’art. 501, III, il nuovo n. 2-bis secondo cui le pene sono raddoppiate “se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale»;
d) il nuovo art. 612-quater che punisce la condotta di “illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”.
Ancora l’impiego di sistemi di IA sarà punito nei reati di truffa (art. 640 c.p.), di frode informatica (art.
648-bis c.p.), di impiego di denaro, beni o utilità di provenienza illecita (artt. 648 ter c.p.) e, ancora, nell’aggiotaggio (art. 2637, I, c.c.).
La Legge sul diritto di autore (n. 633/1941) punirà, all’art. 171, I, chi “riproduce o estrae testo o dati da opere o altri materiali disponibili in rete o in banche di dati in violazione degli articoli 70-ter e 70-quater, anche attraverso sistemi di intelligenza artificiale” e, infine, per l’ipotesi della “Manipolazione del mercato” nel Testo unico delle disposizioni in materia di intermediazione finanziaria (D.Lgs. 24 febbraio 1998, n. 58) all’art. 185, I, (secondo cui “chiunque diffonde notizie false o pone in essere operazioni simulate o altri artifizi concretamente idonei a provocare una sensibile alterazione del prezzo di strumenti finanziari, è punito con la reclusione da uno a sei anni e con la multa da euro ventimila a euro cinque milioni”), è aggiunto il seguente periodo: “Se i fatti sono commessi mediante l’impiego di sistemi di intelligenza artificiale, la pena è aumentata”.

 

Quali nuove disposizioni penali sono previste nel disegno di legge in relazione all’impiego dell’intelligenza artificiale, e quali reati sono interessati da queste disposizioni?

L’art. 26, ultima norma del DDL qui in esame, ricorre all’ormai nota e diffusa formula di chiusura secondo cui “Dall’attuazione della presente legge non devono derivare nuovi o maggiori oneri a carico della finanza pubblica.
Le amministrazioni pubbliche interessate provvedono all’adempimento delle disposizioni della presente legge con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente”.
Stessa formula si trova adoperata all’ultimo comma dell’art. 11 cit. riferito all’assenza di costi per l’istituzione e il funzionamento dell’Osservatorio sull’adozione di sistemi di IA nel mondo del lavoro.
È un bene, da un lato, l’assenza di nuovi costi per i contribuenti ma occorre, dall’altro lato, riflettere e chiedersi se una riforma a costi zero non sia destinata a rimanere solo una riforma sulla carta.
Riusciranno autorità e ministeri a dare concretezza ad una riforma che necessita sicuramente dell’apporto degli esperti senza intaccare le finanze pubbliche (di là del miliardo di euro già stanziato per le imprese ex art. 21 e dalla spesa di euro 300.000 annui per ciascuno degli anni 2025 e 2026 ex art. 19)?
Il tempo darà risposta al quesito; certa è, ad oggi, l’esiguità dell’impegno economico pubblico su cui comunque è lecito attendersi l’innesto di forti investimenti privati con innegabili effettivi positivi per il sistema.

 

 

Approfondimenti:

Back To Top