skip to Main Content

Tecniche di significazione del diritto e linguaggio algoritmico creato da IA. Intervista al Prof. Avv. Mauro Orlandi

Il Prof. Avv. Mauro Orlandi è ordinario presso l’Università del Sacro Cuore ed ha insegnato nelle Università di Parma e di Tor Vergata.  La redazione di DIMT ha intervistato il Professore in merito alla Sua recente pubblicazione: Introduzione alla logica giuridica.

Il Prof. Avv. Mauro Orlandi

 

Nel Suo volume “Introduzione alla logica giuridica” affronta il problema del linguaggio e delle tecniche di significazione nel diritto. Di che si tratta?

Muoverei dal concetto di significazione. Quante volte ci capita di chiedere: “che significa”? Riflettiamo a mente libera su questa domanda. Il significare è un “farsi segno”. Fatti e cose assumono per noi ‘senso’. Se ci fermiamo a pensare, la parola «senso» sembra evocare un dirigersi verso altro-da-sé. Il senso dei fatti e delle cose è la direzione che l’osservatore traccia; sicché all’apparire di A egli è condotto verso B. Il significato è appunto questa direzione, che istituisce una relazione di corrispondenza tra fatto e fatto. Meglio: tra concetto e concetto.

La logica del senso implica il passaggio dal materiale all’immateriale. Uscire da sé è materialmente impossibile; ed è postulabile solo nel mondo spirituale del pensiero. Il significato è una categoria razionale, con cui l’osservatore riduce in concetto l’empirica apparenza delle cose. E così edifica relazioni di senso.

Il dato, che sembra offrirsi ai nostri sensi immediatamente, carico della propria naturale e banale evidenza, si dimostra in verità una immagine mentale; speculum intellecti, sollevato alla coscienza sistematica (sistema: lo stare insieme). La coscienza fa dell’appercezione un concetto; e rende il fatto memorabile (suscettibile di memoria, ossia di riproduzione intellettuale), e perciò comparabile con altri concetti; e ordinabile in sistema di senso. Non si offrono al nostro sguardo meri fatti. Prima di essere concepito, il fatto o la cosa è un nulla. Allo sguardo del giurista si offrono non fatti ma soltanto fattispecie; ossia concetti.

Se il significare è istituire relazioni costanti tra concetti, allora anche la macchina è capace di significazione. Ossia di generare sistemi di corrispondenze tra termini che si tengono insieme.

 

In ambito digitale, in materie quali trattamento dei dati e smart contract, il linguaggio algoritmico creato da IA quale criticità presenta? Il soggetto di diritto nei contratti digitali, ad esempio, chi è in questi casi?

Anche la macchina parrebbe istituire relazioni di senso: tali che al presentarsi di A si presenta necessariamente B. Dal punto di vista semiotico, avverte Raffaele Simone, le lingue sono codici (un termine equivalente a sistemi di segni, ma molto più comodo nell’uso), cioè sistemi di corrispondenze tra l’ordine dell’espressione e l’ordine del contenuto, «destinati alla trasmissione di informazione tra un emittente e un ricevente, attraverso la produzione e la diffusione di messaggi». L’atto di formazione di un messaggio da parte di un emittente «mediante le risorse offerte da un codice si dice codifica».

L’uomo non è soltanto utente di codici ma anche formatore di codici; egli dispone, potremmo dire, di illimitata semiopoiesi. Il codice è la legge che governa il significato; istituendo la relazione tra segno e concetto.

Qui si apre il problema del linguaggio macchinico. L’intelligenza artificiale parrebbe conferire alla macchina la capacità di semiopoiesi. La macchina sembra capace non solo di applicare codici altrui; ma di generare codici nuovi.

Le cronache narrano di Alice e Bob, due impianti artificiali creati da Facebook, che hanno conversato in una lingua non comprensibile sotto gli occhi dei ricercatori. Alice e Bob erano stati istruiti dai programmatori affinché si accordassero in autonomia per dividersi un cappello, due libri e tre palloni. Nei loro tentativi di imparare l’uno dall’altro, le macchine hanno iniziato a “dialogare” con abbreviazioni semplificate per un’interazione più efficiente. La nuova significazione ha permesso alle due macchine di raggiungere un accordo sulla spartizione degli oggetti.

Sul piano delle decisioni negoziali, Alice e Bob parrebbero somigliare molto più a soggetti che ad oggetti.

 

Quali problemi la cosiddetta ‘intelligenza artificiale’ suscita a suo avviso nel diritto dei contratti?

Sembrano darsi all’orizzonte quattro linee d’indagine.

In primo luogo, gli scambi senza accordo. Parrebbe questo il terreno proprio degli atti funzionali di scambio che prescinde dal dialogico consentire delle parti. Se l’accordarsi è un dialogare, ossia condividere concetti attraverso un linguaggio comune, si può ancora pensare che le macchine dialoghino?  La dinamica dell’interazione macchinica appare un “funzionare” piuttosto che un “dialogare”. Sicché il consenso negoziale viene sostituito dalla causalità meccanica. È ancora pensabile un vizio del consenso? un errore della macchina? errore rispetto a quale criterio?

In secondo luogo, il destino dell’obbligazione. I contratti con la macchina o tra macchine potrebbero non richiedere tempo di adempimento. Si pensi ai contratti finanziari: la moneta – quale mera indicazione contabile – passa di macchina in macchina istantaneamente. A ben riflettere tuttavia anche il contratto con le macchine o tra macchine parrebbe ammettere la categoria dell’inadempimento, propria della logica obbligatoria. L’obbligazione è la promessa di una prestazione e del correlativo valore economico; non già l’attesa di un futuro, vicino o lontano che sia. Anche per lo scambio automatico deve ammettersi – se mal non ragiono – la possibile difformità tra promesso (ossia previsto, ancorché nel linguaggio algoritmico) e scambiato. L’inadempimento potrebbe forse declinarsi come malfunzionamento; e concepirsi come difformità della prestazione programmata, a prescindere dalla contemporaneità o attualità dello scambio.

In terzo luogo, il tema della lingua. La lingua – secondo la nota elaborazione di Ferdinand de Saussure – deve tenersi per fenomeno sociale e non privato. Che le parti adottino codici esclusivi ed escludenti (come Alice e Bob di Facebook) parrebbe non equivalere all’ esprimersi in una lingua; ossia attraverso simboli o semantemi condivisi presso una comunità. La lingua della macchina si svolge nella meccanica if/then. Il problema diventa allora la semiopoiesi, di cui l’intelligenza artificiale sembra capace. Il software parrebbe in grado di cambiare da sé medesimo il proprio programma e d’istituire nuove corrispondenze e nuovi codici di significazione. Donde l’imprevedibilità degli esiti, mano a mano che la macchina acquisisce informazione e fa esperienza (statistica?) del mondo. Il “linguaggio” delle macchine intelligenti sembra paradossalmente esibire un tasso di indecifrabilità e di imprevedibilità, che potrebbe sorprendere i soggetti, i quali si siano affidati (per scelta; fino a che punto consapevole?) all’economia dello scambio algoritmico.

L’aumento della capacità autonome o discrezionali del congegno artificiale conduce al profilo della responsabilità e dell’autoresponsabilità. La prima, che appare legata alla “discrezionalità” della macchina intelligente e alla programmabilità e controllabilità delle sue decisioni future. La seconda, che ha riguardo alla scelta del singolo (persona fisica o giuridica) di affidarsi all’intelligenza artificiale per la conclusione e l’esecuzione del “contratto”, accettando (?) il rischio di subire il funzionamento intelligente e imprevisto del software.

Sullo sfondo appare il più radicale problema della circolazione e della distribuzione della ricchezza: chi (un ‘chi’ umano?) potrebbe governare il mondo delle macchine?

 

 

 

 

Back To Top