skip to Main Content

Intervista al Prof. Ugo Ruffolo. Intelligenza Artificiale generativa e mediazione giuridica

Ugo Ruffolo è stato Ordinario di Diritto civile nella Facoltà di Giurisprudenza dell’Università di Bologna, ove ora è docente di “Diritto dell’Intelligenza Artificiale”. È altresì docente di “Diritto civile della società digitale” nella Scuola di Giurisprudenza dell’Università Luiss di Roma. Ha curato diverse opere, anche monografiche, su temi che spaziano, da ultimo, dal diritto dell’AI sino alla responsabilità civile, alla tutela del consumatore, alla responsabilità medica, alle azioni di classe e alle azioni collettive.

 

il Prof. Ugo Ruffolo

In questa intervista di approfondimento, esploreremo con il Professor Ugo Ruffolo i principali spunti emersi dal Suo intervento Intelligenza Artificiale generativa e mediazione giuridica, curato per l’evento Stati generali del Diritto di Internet e della intelligenza artificiale.

 

Durante il Suo intervento ha sottolineato come la libertà di espressione assuma nuove sfumature quando la comunicazione è elaborata da un’Intelligenza Artificiale. Ritiene che la manifestazione del pensiero “robotica” possa, in determinate circostanze, rientrare nella tutela costituzionale della libertà di espressione?

Il tema è tanto complesso quanto centrale, e, nonostante risulti spesso negletto, meriterebbe approfondita disamina. Ora che la AI generativa è capace di comporre testi linguisticamente pregiati e concettualmente articolati, siano essi produzione “letteraria” o risposte scritte ad un prompt, dobbiamo chiederci se e quanto tali testi – e quali di essi – possano considerarsi oggetto della tutela accordata dall’art. 21 Cost. alla libertà di parola.

Le voci a favore, compresa la nostra, trovano conforto in quelle che negli USA si chiedono: “Does artificial intelligence (AI) have rights? Is it protected by the First Amendment?”. E rispondono evidenziando l’esigenza di evitare la c.d. “law of the horse”, e che i principi fondamentali di libertà di espressione, e di stampa, non dovrebbero mutare volto a fronte dell’emergere di un nuovo e diverso medium di comunicazione. Da un canto, dunque, la AI (generativa e non) non ha “diritti”, come qualsiasi altro manufatto, poco importa se “intelligente”; dall’altro, il suo umano utilizzo, o anche solo il testo comunicativo da essa generato e diffuso, può vedere lesi, quando oggetto di “censura”, i diritti (non dell’entità robotica, ma) degli umani che con essa possono o potrebbero interagire: siano essi coautori o (co)divulgatori, lettori o spettatori.

Evitando di evocare il complesso e controverso “diritto a essere informati” – che al tempo di internet e dei social potrebbe assumere ulteriori o diversi connotati (si pensi al tema della disinformazione e delle fake news), basti solo rammentare che “censurare” la circolazione di un testo comunicativo, o inibire una occasione di comunicazione, può rivelarsi suscettibile di alterare il “mercato della libera circolazione delle idee”. Anche quando la “cosa” che parla non ha diritti, vanno considerati quelli degli umani ad ascoltare. E consideriamo anche che quasi mai la AI generativa “parla da sola”, venendo essa quasi sempre in questione come super-tool, come “schiavo sapiente” utilizzato quale ghostwriter; e comunque pertiene ad altri soggetti il mezzo attraverso il quale la comunicazione robotica viene editata. Mi permetto di rinviare, sul tema, al volume, scritto insieme a Cesare Pinelli, I diritti nelle piattaforme (Giappichelli, 2023), ove tali questioni sono approfonditamente esaminate.

 

Il fenomeno dell’IA generativa solleva questioni inedite sul copyright, specialmente in relazione ai dati di addestramento. Secondo Lei, il semplice “leggere” testi per imparare è già una violazione del diritto d’autore o la normativa dovrebbe evolversi per tenere conto della specificità dei modelli AI?

La domanda è se e in quale misura, e al ricorrere di quali condizioni, una tale forma di “sfruttamento” di contenuti e materiali possa essere posta in essere senza ledere i diritti dei relativi titolari di copyright, e in assenza di loro espressa autorizzazione; e se dunque l’uso computazionale dell’opera dell’ingegno sia o meno estraneo alla funzione tipica dell’esclusiva autoriale, soprattutto in ordinamenti quali quelli europei. Dobbiamo altresì chiederci se la risposta all’interrogativo possa essere rinvenuta, o rinvenuta esclusivamente, nelle previsioni che la Direttiva 2019/790 riserva al c.d. “text and data mining”: mi riferisco, in particolare, alle norme di cui agli artt. 3 e 4 della Direttiva, recepite in Italia agli artt. 70-ter e 70-quater l.d.a., cui fa ora riferimento anche il disegno di legge italiano in materia di IA, attualmente all’esame del Senato.

L’apprendimento robotico non dovrebbe subire trattamento discriminante; e la questione della legittimità del processo di apprendimento della machina che “legge” le altrui opere coperte da copyright (non per plagiarle, ma solo) per imparare potrebbe forse porsi, almeno astrattamente, su un altro fronte. Eventuale problema potrebbe, infatti, emergere in relazione al caso – molto differente – di eventuale “riproduzione” indebita delle opere “lette” dall’AI, quanto a meccanismi di “memorizzazione” sotto forma d’una sorta di registrazione riproduttiva di testi (quale potrebbe essere, per fare un lato parallelismo antropocentrico, la fotocopiatura – o altra riproduzione – integrale d’un volume a stampa al fine di arricchire la propria privata biblioteca, ed agevolare la personale capacità di consultazione da parte di un privato, in vista di proprie attività di studio). La questione si sposterebbe allora su un diverso piano di tutela dell’opera autoriale: quello dell’accesso al, ed eventuale “duplicazione” del, supporto fisico che la contiene.

 

Ha menzionato il ruolo delle misure di labelling e warning previste dall’AI Act come strumenti regolatori alternativi ai rimedi inibitori autoritativi. Ritiene che queste soluzioni siano sufficienti a garantire un uso trasparente e sicuro dell’IA generativa, o sarebbe necessario un intervento normativo più incisivo?

La prescrizione di doveri di warning o labelling può essere una conveniente soluzione a quantomeno parte dei problemi, anche di disinformazione, posti dall’avvento dell’AI generativa. La loro praticabilità resta problematica con riguardo alle comunicazioni accessibili, quanto a identica tipologia di contenuto, ad un novero indeterminato di fruitori del servizio, ossia a tutti coloro che volessero porre quesiti omologhi ricevendo risposte “individuali” che, a fronte di prompt simili, sarebbero sostanzialmente ma non anche formalmente coincidenti: con il medesimo contenuto, ma espresso “con altre parole”.

Si pensi, ad esempio, al caso di un chatbot che “a domanda risponde”. In tale ipotesi, lo stesso strumento inibitorio, anche quando astrattamente invocabile, risulterebbe di fatto ed in concreto difficilmente praticabile: si può inibire la riedizione di un testo, non la ripetizione di un medesimo contenuto concettuale espresso in forma diversa. Occorrendo, in quel caso, intervenire, con azioni anche “demolitorie”, sullo stesso processo di apprendimento della machina, ricorrendo ad operazioni di “unlearning” che gli stessi esperti di settore riconoscono particolarmente complesse, se non talora impraticabili.

Emerge, poi, un ulteriore elemento critico passibile di regolazione: la profilazione dell’utente sulla cui base vengono veicolati contenuti selezionati ad personam, rendendo possibile, e particolarmente efficace, una disinformazione mirata. Regolare restrittivamente il ricorso alla profilazione appare un efficace mezzo per contrastarla. La questione attiene ad un duplice piano: quello della validità ed efficacia della (clausola negoziale di) cessione dei dati ai quali lo stesso utente consente al provider di accedere, “fornendo la corda con la quale sarà impiccato”; quello della possibile regolazione della stessa attività di profilazione. Si tratta di due piani distinti ma di possibile interazione virtuosa.

 

Lei evidenzia come le IA possano sviluppare abilità impreviste, come la capacità di dialogare con altre entità robotiche o di creare linguaggi propri. In un contesto del genere, come dovrebbe essere ripensata la responsabilità giuridica per eventuali danni o violazioni derivanti da comportamenti inattesi della macchina?

Nella pubblicistica di settore vengono etichettate come “proprietà emergenti” le abilità insospettabili ed inattese, autonomamente e “spontaneamente” acquisite dalla machina, che si rivelano almeno apparentemente esorbitanti dai limiti, previsioni e scopi del pre-addestramento. Emerge, dunque, la capacità della macchina di effettuare scelte non predicabili, maturate sulla base di mentalitè e orientamenti forgiati dalle esperienze “vissute”; e che non sempre possono essere adeguatamente previste e gestite da chi sviluppi, “produca” e/o utilizzi i sistemi di AI (specialmente quelli più evoluti).

La problematica di come governare il ristoro di danni che tali inattesi sviluppi dell’AI possano arrecare, e di chi debba essere chiamato a risponderne e sulla base di quali norme, è quella che, più di altre, e quantomeno dal punto di vista europeo, ha dato l’avvio, ormai diversi anni fa, al dibattito sul “diritto dell’AI”, specialmente a fronte dei (forse solo percepiti) timori di “vuoti di responsabilità” (si pensi alla ormai nota Risoluzione del Parlamento europeo del febbraio 2017 che evocava proprio tali problemi, giungendo anche ad evocare la prospettiva della necessità di coniare una “personalità elettronica” attraverso la quale responsabilizzare direttamente la machina per i danni dalla stessa – o con la stessa – generati). Ne derivò il centrale quesito: dinanzi a tale nuovo fenomeno, sono indispensabili innovazioni normative settoriali o le norme e i principi che governano il nostro ordinamento, se avvertitamente interpretate, possono già governare il fenomeno?

Si tratta, anche questo, di tema complesso, che non può essere compiutamente esaurito in questa sede. Sul punto mi permetto allora di rinviare ai recenti due volumi di Diritto dell’Intelligenza Artificiale, scritti insieme ad Andrea Amidei (Luiss University Press, 2024), ove il tema è trattato con riguardo a più di un ambito: dalla responsabilità al contratto, sino alle questioni di proprietà industriale e intellettuale. Basti qui dire che, a mio avviso, non dobbiamo confondere la necessità di interventi regolatori di settore che governino, ad esempio, specificità tecniche del fenomeno (si pensi all’AI Act) con la prospettiva di innovazioni normative che, intervenendo anche su istituti-chiave quali quelli afferenti alla responsabilità o al contratto, rischino di stravolgerne l’impianto per inseguire le specificità di un singolo fenomeno. E che, talora, adeguata risposta può essere rinvenuta nella sapiente interpretazione di norme già esistenti (si pensi, ad esempio, quanto al tema della responsabilità extracontrattuale, alle previsioni di product liability, o a norme quali gli artt. 2050 o 2051 c.c.).

 

Il ruolo operativo dell’IA generativa è meno appariscente rispetto a quello comunicativo, ma altrettanto impattante. Quali nuovi strumenti di mediazione giuridica sarebbero necessari per affrontare i problemi che l’IA generativa pone in ambiti come il contratto, la responsabilità civile e la protezione dei dati?

Se quella digitale, etero-programmata, era, potremmo dire, la “machina Neanderthal”, quella AIpowered è evoluta in “machina sapiens”. E si giunge alla “machina sapiens sapiens” con l’ulteriore, recente quanto epocale salto qualitativo segnato dall’avvento dell’AI generativa, che si rivela capace non solo “di parlare”, ma anche “di fare”, sembrando essere passata dalla capacità di governare “modelli di linguaggio” a quella di censire “modelli di mondo”. La sua evoluzione procede con progressione geometrica, e genera immediate quanto inusitate esigenze di mediazione giuridica.

A mio avviso, tuttavia, le logiche e metodologie per governare i fenomeni nuovi non esigono necessariamente un “nuovo ecosistema” giuridico e concettuale, come – talora semplicisticamente – si declama invocando il rischio di “incertezza del diritto”. Rispetto al fenomeno delle nuove “intelligenze” non umane, per il giurista il bagaglio concettuale che abbia codice genetico “romanistico” non può giudicarsi inadeguato, distante ed estraneo: tanto il diritto romano come fenomeno regolatorio storicamente contingente, quanto le elaborazioni e categorie concettuali dal medesimo ispirate storicamente, poggiano su una realtà fattuale millenaria nell’ambito della quale il massimo bene, anche strumentale e produttivo, era costituito dalle massime intelligenze naturali sviluppate sul pianeta, quelle umane degli schiavi (oltre che – cosa differente e minore – degli animali).

Come già anticipato, ritengo talora riduttiva la pretesa di gestire tali nuovi problemi sempre e solo ricorrendo ad innovazioni normative, mentre non dovrebbe essere sottovalutata la capacità delle norme vigenti, e dei principi a esse sottese, di essere adeguatamente interpretate per dare mediazione giuridica ai nuovi fenomeni. Ancora una volta mi permetto di rinviare, per una più approfondita disamina della questione, a Ruffolo, Amidei, Diritto dell’Intelligenza Artificiale, vol. I e vol. II, Luiss University Press, 2024.

 

Back To Top