skip to Main Content

Intervista al Prof. Salvatore Orlando. Diritto privato e nuove tecnologie: i contenuti degli insegnamenti sul Diritto dei dati

Il Prof. Salvatore Orlando, attuale Professore ordinario di diritto privato presso il Dipartimento di Diritto ed economia delle attività produttive dell’Università La Sapienza di Roma, vanta una solida esperienza accademica nel campo del diritto e delle nuove tecnologie digitali. Dirige il gruppo di ricerca della Sapienza denominato OGID – Osservatorio Giuridico sull’Innovazione Digitale.

Con oltre due decenni di contributi nell’ambito dell’insegnamento accademico, il Professore ha ricoperto ruoli di rilievo all’interno della comunità accademica. La sua expertise spazia su diverse aree, inclusi il diritto delle nuove tecnologie digitali, con particolare enfasi sulla protezione degli individui nella società dell’informazione, la teoria generale del diritto, con un focus sulla struttura della norma giuridica e sulla logica del ragionamento giuridico, e il diritto privato europeo, con particolare attenzione al diritto dei contratti e del consumo.

Inoltre, ha contribuito alla formazione avanzata con il ruolo di co-coordinatore e docente per il CAF Corso di Alta Formazione della Università Sapienza di Roma su “Etica, diritti e policies dell’Intelligenza Artificiale” e come docente del Master di secondo livello della Università La Sapienza di Roma su “Diritto della crisi delle imprese”.

Autore di tre monografie e numerosi contributi sia in italiano che in inglese, Orlando continua a essere un punto di riferimento nel panorama accademico, contribuendo in modo significativo alla ricerca e alla diffusione della conoscenza in ambito legale e delle nuove tecnologie.

 

Il Prof. Salvatore Orlando

 

Com’è possibile correlare in modo tangibile la ricerca accademica con l’attuale transizione normativa nel campo del diritto dei dati?

Alla transizione digitale si accompagna una transizione normativa imponente, che non è esagerato definire epocale. Uno studio commissionato dal Parlamento Europeo censiva un anno fa circa 50 atti normativi della UE nel digital field tra testi adottati ed in cantiere, e da allora il numero è aumentato. La ricerca accademica, se vuole aspirare a risultati fruibili e continuare a coltivare un’idea di ordinamento giuridico che rifletta significati coerenti e razionali (un ordine, per l’appunto), deve comprendere la necessità di sistemare questa enorme mole di nuove norme attraverso categorie generali e concetti giuridici affidanti ed adeguati ai tempi. Altrimenti si rischia di assecondare una corsa all’esegesi dell’ultima norma, priva di quei raccordi razionali che consentono di continuare a riferirsi alla nostra ricerca in termini di scienza. I giuristi europei devono procedere in questa direzione anche per guidare lo stesso legislatore europeo nel modellare l’erigendo diritto dei dati. La costruzione e condivisione tra i giuristi europei di concetti e categorie giuridiche, a partire dalle nozioni giuridiche di informazioni e dati, da trasmettere al legislatore europeo, è una condizione essenziale per consentire allo stesso legislatore europeo di formulare normative c.d. future proof. Oggi, al contrario, mi sembra che il mondo dell’accademia segua, piuttosto che suggerire e anticipare le soluzioni del legislatore europeo. In altre parole, mi sembra che si debba parlare non solo di una transizione digitale e normativa ma anche di una transizione culturale (della cultura giuridica) che, sperabilmente, sarà superata attraverso l’avvio di una consapevole elaborazione sistematica di categorie e concetti nel settore del diritto dei dati da parte dei giuristi europei.

 

Quali sono le principali aree del diritto coinvolte da questa transizione normativa nel contesto della data economy?

Nessun’area del diritto è estranea al diritto dei dati, perché con diritto dei dati intendiamo in breve il governo dei nuovi e specifici conflitti creati nei rapporti tra i privati e tra questi e le autorità pubbliche dall’affermazione delle tecnologie digitali. In un mondo caratterizzato dalla c.d. ubiquità del software, il governo di nuovi e specifici conflitti di questo tipo si avverte come necessario in ogni area del diritto privato e del diritto pubblico. Considerando più da vicino l’area privatistica, la data economy rende necessario interrogare in modo consapevole (ed avvertito dei fenomeni contemporanei) tutti gli istituti tradizionali dell’autonomia privata, oltre che, naturalmente, il diritto dei contratti, il diritto dei consumatori, il diritto della proprietà intellettuale, il diritto della concorrenza. Le applicazioni dell’intelligenza artificiale riguardano però come detto tutti gli ambiti, inclusi il diritto di famiglia (in particolare per quanto riguarda l’educazione dei minori), il diritto del lavoro, il diritto societario, il diritto amministrativo e più generalmente le regole intese a governare l’esercizio dei pubblici poteri.

 

Considerando l’espansione delle fonti normative nel diritto dei dati, come si potrebbero identificare e collegare i concetti chiave che giustificano l’insegnamento dedicato a questa disciplina?

Dobbiamo avere innanzitutto consapevolezza del passaggio che si è avuto dalla ‘società dell’informazione’ (information society), caratterizzata dalla riproduzione e circolazione delle informazioni in formato elettronico, alla ‘data economy’. L’economia dei dati digitali (data economy) non si limita, come in passato, alla riproduzione e alla trasmissione elettronica delle informazioni, ma consiste nella creazione – attraverso processi che individuano un vero e proprio settore industriale – di nuove informazioni a partire dall’immagazzinamento e dal trattamento automatizzato di enormi quantità di dati (big data). Questa industria (la più importante dal punto di vista economico su scala planetaria oggi) e i relativi processi sono ormai sotto l’occhio di tutti con l’avvento e la definitiva affermazione dei sistemi di intelligenza artificiale. Assistiamo di conseguenza a fenomeni di formazione, fruizione e circolazione della conoscenza mai sperimentati dall’uomo prima d’ora. In questo contesto, sembra ineludibile, anche per i motivi che dicevamo prima, la costruzione di concetti, categorie e nozioni giuridiche affidanti, che includano quanto meno quattro aree o polarità tematiche, che riassumerei con le parole ‘conoscenza’, ‘circolazione’, ‘linguaggi’ ed ‘intelligenza artificiale’. Con la prima espressione, intendo segnalare la necessità dell’elaborazione e condivisione di nozioni giuridiche di dati ed informazioni idonee a confluire in una teoria giuridica della conoscenza, adeguata al mondo nel quale viviamo. Per una pluralità di applicazioni, l’industria del digitale fa ormai un largo impiego delle neuroscienze, ossia di quel fascio di discipline che studiano le risposte degli esseri umani agli stimoli cognitivi. Per il diritto, l’applicazione delle tecnologie del digitale alla formazione, alla fruizione e alla circolazione della conoscenza ha una rilevanza giuridica sia diretta che indiretta, in quanto si collega non soltanto (direttamente) ai vistosi processi contemporanei di espansione e modificazione delle arti e delle scienze, ma anche (indirettamente) ai fenomeni originati dalle tecniche di persuasione di massa e di influenza comportamentale: profili – tutti – che attraggono una pluralità di normative e che sono al loro fondo collegati alla teoria e alla realizzazione pratica di diritti fondamentali. A proposito delle tecnologie digitali sviluppate e inizialmente impiegate solo in medicina, si parla sempre più diffusamente di neuro-diritti (neuro-rights). A proposito dei sistemi di intelligenza artificiale che si avvalgono delle neuroscienze impiegati per il marketing, si parla di neuromarketing. Ci sono studî sempre più estesi ed organici sugli effetti di determinate tecnologie digitali sulla psicologia e i comportamenti dei bambini e delle persone che presentano particolari profili di vulnerabilità. Questi temi sono studiati anche a proposito di applicazioni tecnologiche specifiche come i social robots e gli assistenti vocali, sempre più pensati per essere ‘agents’ (termine coniato in senso non giuridico per distinguerli dai ‘bots’) ossia per indicare interfacce software disegnate per prendere l’iniziativa (“to be proactive”) ed anticipare le domande degli esseri umani, dando loro suggerimenti prima di essere interpellate.

A nessun giurista può sfuggire l’esigenza di una riflessione sistematica su questi temi e la sua strumentalità rispetto a quelli tradizionali della volontà dei privati, e così alla ricerca (oggi urgente) di criteri e orientamenti adeguati ai tempi per governare i molteplici conflitti che riguardano l’autodeterminazione degli esseri umani e le pratiche di sfruttamento delle vulnerabilità comportamentali e decisionali delle persone.

La seconda grande area tematica cui facevo cenno, quella della circolazione, riguarda i limiti all’autonomia privata nell’industria dei dati. A me sembra che si debba superare l’approccio tradizionale che vede in quest’ambito soltanto i limiti dettati dalle norme a tutela dei dati personali, e promuovere una teoria generale che riguarda il trattamento di tutti i dati (personali e non personali), e tutti i limiti ordinamentali postulabili a partire dalla considerazione di tutti i diritti fondamentali della persona per proseguire con la valutazione di tutti gli altri diritti antagonisti, quali i diritti della proprietà intellettuale. Sulla necessità di una direzione di questo tipo mi sembra debba convenirsi a partire dalla constatazione che l’industria dei dati riguarda oggi ogni settore delle attività dell’uomo e investe una pluralità di diritti fondamentali, non solo a quelli collegati al controllo sui propri dati personali.

Una terza area, pressocché ancora inesplorata dalla scienza giuridica, è quella dello studio dell’interazione tra i linguaggi naturali e quelli artificiali di programmazione. Un mondo che vede mediati dalle applicazioni delle tecnologie digitali non solo gran parte dei processi di acquisizione individuale della conoscenza ma anche gran parte dei rapporti sociali e istituzionali (social media, e-commerce, e-governance, smart contracts, etc.), propone alcuni significativi problemi giuridici sui linguaggi di programmazione che governano i programmi per elaboratori elettronici, in particolare sul punto che consiste nello stabilire quanto del linguaggio naturale degli uomini – attraverso il quale gli uomini si intendono e convengono circa i requisiti che il software deve avere, anche in termini di rispetto delle leggi e di esecuzione degli atti di privata autonomia,  nelle varie applicazioni – sia trasferibile in astratto e venga trasferito in concreto nel linguaggio artificiale di programmazione, e, così, e particolarmente, sui problemi giuridici che derivano da errori di selezione, interpretazione e traduzione che si verificano nella fase dell’individuazione dei requisiti del software e in quella del ‘passaggio’ dal linguaggio naturale al linguaggio artificiale di programmazione.

C’è infine l’area della c.d. AI governance, sulla quale molto c’è da lavorare a partire dalla creazione di una cultura di base idonea a scongiurare approcci ideologici opposti rispetto alla tecnologia dell’intelligenza artificiale (tanto l’approccio pregiudizialmente ‘adorante’ che quello pregiudizialmente ‘respingente’). In questo contesto, una delle sfide più insidiose consiste nell’identificare e neutralizzare le numerose trappole linguistiche presentate dai primi documenti istituzionali in materia (risoluzioni, libri bianchi, proposte normative), che spesso utilizzano tout court determinate espressioni suggestive invalse nella scienza informatica senza considerare la loro capacità di creare gravi fraintendimenti nella terminologia giuridica. Obiettivo, non meno difficile è quello di creare una cultura giuridica adeguata a comprendere rettamente il carattere multi-livello della c.d. governance della IA e ad articolare di conseguenza soluzioni applicative chiare e coerenti, che considerino l’ordinamento giuridico nella sua interezza. Si tratta di comprendere come certe discipline (come la bozza, al momento stagnante, dell’AI Act) siano qualificabili come discipline di prodotto, e che esse non sostituiscono le normative che hanno ad oggetto le attività incise in ogni ambito del diritto privato e del diritto pubblico dall’utilizzazione degli output dei sistemi di intelligenza artificiale.

 

Come l’insegnamento specifico del diritto dei dati può adattarsi e rispondere in modo efficace alle esigenze create dai continui cambiamenti e dalle nuove tecnologie nel contesto normativo?

A mio avviso, non soltanto il legislatore europeo deve aspirare a creare discipline ‘future-proof’, ossia insensibili in principio all’ultima novità tecnologica, ma anche i giuristi devono aspirare a elaborare ed impartire insegnamenti e a scrivere manuali e libri ‘ruling-proof’, ossia in principio insensibili all’ultima novità normativa. Questi due obiettivi passano attraverso il superamento della fase di transizione culturale di cui parlavo e la creazione di concetti e categorie stabili e sufficientemente condivisi. A me sembra che le quattro aree tematiche sopra individuate siano il campo di elezione per un’elaborazione concettuale di questo tipo, e che dunque un insegnamento specifico del diritto dei dati possa adattarsi e rispondere in modo efficace alle esigenze create dai continui cambiamenti e dalle nuove tecnologie nel contesto normativo contemplando uno spazio adeguato ad una teoria giuridica della conoscenza, delineando una teoria generale della circolazione dei dati, creando spazio per una riflessione sull’interazione tra linguaggi naturali e linguaggi di programmazione e fissando in modo chiaro le linee di raccordo tra i vari e diversi livelli di governo dell’intelligenza artificiale.

 

Approfondimenti:

Back To Top