Il 20 gennaio 2025, presso la prestigiosa Sala Consiliare del Palazzo Valentini a Roma, si…
Il diritto dei robot: la regolamentazione giuridica dei comportamenti non umani
![Copertina-La-Rete-e-il-fattore-C-small](https://www.dimt.it/wp-content/uploads/2016/02/localhost_dimt_wp-content_uploads_2016_02_copertina-La-Rete-e-il-fattore-C-small-542x430.jpg)
Di seguito il contributo di Marco Scialdone contenuto in “La rete e il fattore C: Cultura, Complessità, Collaborazione“, volume a cura di Emma Pietrafesa, Flavia Marzano e Tiziana Medici pubblicato da Stati Generali dell’Innovazione
Introduzione Uno scritto che ha la velleità di affrontare la spinosa tematica della responsabilità giuridica degli automi non può che prendere le mosse dall’introduzione de “Il Leviatano” di Thomas Hobbes che così recita: “la Natura (l’arte con la quale Dio ha fatto e governa il mondo) è imitata dall’arte dell’uomo, come in molte altre cose, così anche in questo, nel poter fare un animale artificiale. Infatti, dato che la vita non è altro che un movimento di membra il cui inizio è in qualche principale parte interna, perché non possiamo dire che tutti gli automi (macchine che si muovono da sé mediante molle e ruote, come un orologio) hanno una vita artificiale?” [1]. Ammettere che possa esistere una vita artificiale porta il giurista ad interrogarsi sulla regolamentazione delle condotte da ciò scaturenti e, finanche, sull’esistenza di un diritto artificiale: come ricorda Francesco Romeo nel suo saggio “Esplorazioni nel diritto artificiale” [2], già Lothar Philipps, nel 1989, descriveva un ordinamento giuridico per un popolo di esseri artificiali, delineando da subito i problemi di siffatto campo di ricerca: può esistere un diritto creato da esseri artificiali? Se sì, esso può essere utile all’uomo ed alla teoria del diritto? E quali sono le condizioni per farlo? Se fino ad oggi i rapporti tra informatica e diritto [3] si sono incentrati sul modo in cui la prima è stata in grado di aiutare gli operatori del diritto nello svolgimento della propria opera o, per converso, sulle nuove fattispecie che l’informatica è stata in grado di produrre in termini di condotte umane giuridicamente rilevanti, è ragionevole pensare che in un futuro prossimo la predetta relazione si arricchirà di un ulteriore tassello: la regolamentazione giuridica di condotte non umane. A tal riguardo la dottrina [4] ha da tempo coniato l’espressione “cibernetica del diritto” per indicare l’ipotesi in cui il computer sia programmato per l’applicazione automatica della legge (più in particolare, per la formazione di provvedimenti amministrativi o giurisdizionali) o per la stipulazione di contratti senza l’intervento dell’uomo. I robot: soggetti od oggetti del diritto? Nel saggio“Soggettività artificiali e diritto” [5], il Prof. Giancarlo Taddei Elmi dà conto del dibattito sviluppatosi a partire dagli anni ’50 circa la possibilità dei computer di possedere un’intelligenza di tipo umano. E’, infatti, nell’ottobre del 1950 che Alan Turing pubblica l’articolo “Computer Machinery and Intelligence” [6] nel cui incipit è posto l’emblematico interrogativo: “le macchine possono pensare?” [7]. L’opera di Turing è considerata una pietra miliare negli studi sulla relazione corpo-mente e sull’intelligenza Artificiale: “parte da lì l’idea e, soprattutto, il progetto di costruire un computer capace di simulare il cervello umano nel suo insieme, fino alla prospettiva di avere un’intelligenza senza corpo” [8] Si sviluppa, così, quella corrente di pensiero denominata “Intelligenza artificiale forte” , secondo la quale i computer possono riprodurre processi intellettuali identici a quelli umani: conseguentemente, “non vi sarebbe alcuna differenza ontologico-quantitativa tra cervello umano e cervello elettronico e tra intelligenza umana e intelligenza artificiale, la sola differenza sarebbe la sede o il supporto fisico, la testa umana fatta di carne, ossa e altri materiali biologici, e la struttura di un calcolatore fatto di metallo e di energia” [9]. A fare da contraltare ad una simile impostazione, vi è quella che va sotto il nome di “Intelligenza artificiale debole”, secondo cui le macchine possono soltanto simulare i processi intellettuali umani, stante l’ontologica diversità tra intelligenza artificiale e intelligenza umana [10]. A seconda del modello prescelto, differenti saranno le conseguenze sul piano giuridico: i sostenitori dell’approccio massimalista (intelligenza artificiale forte) non escludono che robot particolarmente avanzati possano essere considerati come soggetti del diritto [11], secondo la tesi minimalista (intelligenza artificiale debole), invece, gli automi, anche qualora i loro comportamenti fossero indistinguibili da quelli umani, resterebbero comunque degli oggetti, con tutto ciò che ne consegue in termini di loro collocazione all’interno dell’ordinamento giuridico. Sebbene a oggi non sia possibile attribuire personalità giuridica agli automi, non essendo ciò previsto da alcuna norma positiva, tuttavia è interessante dar conto di come ciò potrebbe avvenire senza per ciò stesso dover procedere a un’equiparazione sostanziale tra esseri umani e robot. Come noto, il nostro ordinamento giuridico riconosce ad alcune entità (associazioni, società ecc) la c.d. personalità giuridica il cui tratto distintivo consiste nel possedere autonomia patrimoniale rispetto ai patrimoni delle persone fisiche che le compongono o le amministrano. Autorevole dottrina [12] ha sostenuto che un simile approccio potrebbe essere adottato anche con riferimento agli automi: essi potrebbero avere un proprio patrimonio e rispondere nei limiti di questo delle obbligazioni assunte. Una variante “potrebbe essere la situazione che vigeva nel diritto romano per lo schiavo. Era una un’entità che rispondeva nei limiti di un patrimonio separato detto peculium” [13]. In questo caso però l’ipotesi di una soggettività fittizia avrebbe meno forza poiché il patrimonio continuava ad essere posseduto dal dominus e lo schiavo era pur sempre una res. Secondo Taddei Elmi, “un’ipotesi di soggettività giuridica plausibile potrebbe essere quella del nuncius o dell’ambasceria” [14]: per lo studioso toscano, infatti, aderendo a un’interpretazione più moderna della figura del nuncius, deve riconoscersi allo stesso un certo grado di autonomia espressiva nella trasmissione della volontà di cui è portatore (“Il nuncius è come il telegrafista che ha autonomia espressiva di linguaggio e simboli: la dichiarazione è la propria”). Sotto tale profilo, possono verificarsi due possibili situazioni patologiche: il nuncius può trasmettere una dichiarazione errata volontariamente, oppure involontariamente. Se nella seconda ipotesi potrà trovare applicazione l’art. 1433 c.c. [15] relativo all’errore nella dichiarazione o nella sua trasmissione, più difficile sarà rinvenire nell’ordinamento una soluzione per l’errore volontario, non essendo possibile indagare la consapevolezza o meno dell’automa, perché ciò presupporrebbe l’indagine su stati psicologici che egli non può possedere. Ecco allora che appare più ragionevole, de iure condito, ricondurre la fattispecie in esame (un automa che opera per conto del suo “dominus”) a quella del mero strumento di trasmissione di una dichiarazione di volontà altrui, con tale intendendosi sia la dichiarazione che la volontà, le quali resterebbero integralmente ascrivibili all’utilizzatore del robot/automa. La responsabilità civile degli automi per danni prodotti a terzi. Si è già accennato che risulta impossibile, al momento, riconoscere personalità giuridica agli automi, quand’anche dotati di spiccate capacità di ragionamento: ne consegue che gli eventuali danni prodotti a terzi in ragione delle loro azioni saranno ascrivibili esclusivamente al produttore e/o all’utilizzatore del robot [16]. Per brevità della trattazione, in questa sede non si affronterà il tema dei danni derivanti da un difetto di fabbricazione [17] e, al contempo, ci si concentrerà sulla sola ipotesi di responsabilità extracontrattuale che si realizzi allorquando il robot sia lasciato libero di interagire con l’uomo [18] e finisca per provocargli una lesione personale [19]. La prima domanda che occorre porsi è se nel nostro ordinamento siano rinvenibili disposizioni che possano essere utilizzate in una simile fattispecie o se, per converso, sia necessario un intervento del legislatore. A parere di chi scrive non sarebbe necessaria l’introduzione di nuove leggi, potendo trovare, in primo luogo, applicazione l’articolo 2050 c.c. inerente l’esercizio di attività pericolose. A mente di tale norma, “chiunque cagiona un danno ad altri nello svolgimento di attività pericolosa, per sua natura o per la natura dei mezzi adoperati, è tenuto al risarcimento, se non prova di aver adottato tutte le misure idonee ad evitare il danno” . Secondo l’insegnamento della Suprema Corte [20], per attività pericolosa deve intendersi quell’attività potenzialmente dannosa di per sé per l’alta percentuale di danni che può provocare in ragione della sua natura o della tipologia dei mezzi adoperati. In altri termini, ai fini dell’accertamento della responsabilità ex art. 2050 c.c., il giudizio sulla pericolosità va espresso non sulla base dell’evento dannoso effettivamente verificatosi, ma attraverso una prognosi postuma, sulla base delle circostanze di fatto che si presentavano al momento stesso dell’esercizio dell’attività ed erano conoscibili dall’uomo medio, o, comunque, dovevano essere conosciute dall’agente in considerazione del tipo di attività esercitata. Come dimostrano recenti episodi di cronaca [21], laddove un robot dotato di capacità adattative e di apprendimento sia lasciato libero di interagire con un uomo non esiste sicurezza alcuna che lo stesso non possa assumere comportamenti aggressivi nei confronti di terzi. Allo stato della tecnica, pertanto, non si ravvedono motivi per escludere dal novero delle “attività pericolose” ex art. 2050 c.c. l’uso di robot impiegati in attività relazionali con esseri umani. Un’altra tesi, non priva di fascino, potrebbe essere quella dell’applicazione analogica dell’articolo 2052 del codice civile in forza del quale “Il proprietario di un animale o chi se ne serve per il tempo in cui lo ha in uso è responsabile dei danni cagionati dall’animale, sia che fosse sotto la sua custodia sia che fosse smarrito o fuggito, salvo che provi il caso fortuito”. In buona sostanza, gli automi saranno i nostri futuri animali domestici? Se così fosse, perché non applicare quelle disposizioni che l’ordinamento ha da tempo previsto in tema di danni da loro cagionati a terzi? Orbene, l’articolo 2052 c.c. appare di notevole interesse anche sotto un diverso punto di vista: dalla sua esegesi, infatti, emerge una responsabilità alternativa tra proprietario e colui che si “serve” dell’animale per il tempo in cui “lo ha in uso”. Nel caso di un robot, ciò consentirebbe, ad esempio, di evitare che il proprietario risponda dei danni dallo stesso cagionati nel periodo in cui ne abbia affidata la responsabilità ad un terzo il quale se ne sia servito per un proprio tornaconto personale. Secondo la giurisprudenza prevalente, infatti, il servirsi dell’animale di cui all’art. 2052 c.c. può indicare il voler perseguire una finalità economica, un profitto materiale o anche immateriale: non è, quindi, essenziale il fine in sé dell’utilizzo dell’animale da parte del terzo, quanto che detto fine sia autonomo rispetto a quello del proprietario, comportando l’attribuzione in favore del primo del diritto di usare l’animale per soddisfare un proprio interesse e, di contro, l’onere di risarcire i danni causalmente collegati al suddetto uso [22]. Conclusioni Un recente studio di Human Rights Watch sui “Robot Killer” [23], ossia gli automi da utilizzare in contesti di guerra con la capacità di selezionare gli obiettivi e ingaggiare un combattimento senza l’intervento umano, ha affrontato gli interrogativi più spinosi legati al loro uso a partire dall’imputabilità delle condotte illecite eventualmente tenute, nonché dagli errori che l’automa potrebbe compiere laddove non sia in grado di distinguere tra obiettivi militari e obiettivi civili. Lo studio ha rilevato che l’automa non potrebbe rientrare nella giurisdizione delle corti internazionali non essendo “natural person” e che, in ogni caso, anche laddove le convenzioni internazionali fossero cambiate, un eventuale giudizio non raggiungerebbe alcun risultato utile per la società o per la vittima del crimine posto che il robot non subirebbe né un effetto deterrente dalla condanna, né tanto meno potrebbe percepirne il disvalore. Per l’operatore del diritto, allora, lo studio delle problematiche giuridiche connesse alla diffusione dei robot è un’occasione unica per interrogarsi o reinterrogarsi su ciò che distingue le nostre condotte da quelle di soggetti non umani e su dove risieda l’unicità del nostro essere, tale da non permettere la sua riproducibilità tecnologica. Come scritto da Maurizio Gualdieri [24], “l’uomo non può sottrarsi al dovere di osservare come la realtà veda emergere una nuova figura soggettiva: il robot. Una figura in costante processo di affrancamento dall’uomo. E dall’osservazione dell’uomo sul robot ricavarne principi, idee che diano contenuto a precetti e conformino regole e performino, un domani, un diritto. Il diritto dei robot”. Note [1] Hobbes T, Il Leviatano, Rizzoli 2011, pag. 5. [2] Romeo F., Esplorazioni nel diritto artificiale , in I-Lex – Scienze giuridiche, cognitive ed intelligenza artificiale, n. 01/2004 [3] Sui rapporti tra informatica e diritto mi sia consentito di rimandare al mio saggio “Il rapporto tra informatica e diritto: passato, presente e futuro”, in Ciberspazio e Diritto, vol. 11, n. 4/2010, Mucchi Editore, pag. 573-584 [4] Borruso R. – Tiberi C., L’informatica per il giurista, dal bit ad Internet, II ed., Giuffrè Editore, 2001, pag. 387. [5] Il saggio è disponibile al seguente indirizzo, http://www.altalex.com/documents/news/2004/06/25/soggettivita-artificiali-e-diritto (sito consultato indata 16 luglio 2015) [6] Turing A., Computing Machinery and Intelligence, Mind, New Series, 1950, vol. 59, n. 236, pag. 433- 460. L’articolo è visionabile anche al seguente indirizzo, http://www.loebner.net/Prizef/TuringArticle.html (sito consultato in data 16 luglio 2015) [7] Turing A. op. cit, “I propose to consider the question, “Can machines think?” This should begin with definitions of the meaning of the terms “machine” and “think.” [8] Santosuosso A, Boscarato C., Caroleo F., Robot e Diritto: una prima ricognizione, in NGCC, luglio- agosto 2012, pp. 494-516 [9] Taddei Elmi, G., op. cit. [10] C f r . Searle. J.R., Minds, Brains and Programs, in T h e Behavioral and Brain Sciences, 3, Cambridge University Press, 1980. [11] Il primo ad ipotizzare la soggettività giuridica dei robot è stato il filosofo americano, Hilary Putnam, che aveva ipotizzato già negli anni 60 il riconoscimento dei diritti civili per i robot. Cfr. Putnam, H., I robot: macchine o vita creata artificialmente?, in Mente, Linguaggio e Realtà, Adelphi, 1987, pagg. 416-438. [12] Sartor, G., Gli agenti software: nuovi soggetti del ciberdiritto?, in Contratto e Impresa, 2, 2002, pag. 492. [13] Taddei Elmi, G., op. cit. [14] Taddei Elmi, G., op. cit. [15] Art. 1433 c.c., “Errore nella dichiarazione o nella sua trasmissione. Le disposizioni degli articoli precedenti siapplicano anche al caso in cui l’errore cade sulla dichiarazione, o in cui la dichiarazione è stata inesattamente trasmessa dalla persona o dall’ufficio che ne era stato incaricato”. [16] Sul tema si rimanda all’interessante trattazione contenuta in Biasiotti, M.A., Romano, F., Sagri, M.T., La responsabilità degli agenti soware per i danni prodotti a terzi, in Informatica e Diritto, Vol. XI, 2002, n. 2, pag. 157-167. [17] Per un’ampia trattazione di tale aspetto si rimanda a Santosuosso A, Boscarato C., Caroleo F., op. cit. [18] Il Reporter’s Note del Uniform Commercial Code – 2B, ad esempio, stabilisce che l’agente elettronico è una mera estensione della persona che lo utilizza e le sue azioni non sono che le azioni di questa. [19] Cfr. Boscarato, C.,Who’s responsible for a robot’s actions?, i n Technoligies on the stand: legal and ethical questions in neuroscience and robotics, a cura di Van der Berg e Klaming, Wolfpublisher, 2011, 383-402. [20] cfr. Cass. 21/10/2005, n. 20357. [21] il 2 luglio 2015, un robot ha ucciso un operaio in una fabbrica tedesca (http://www.repubblica.it/esteri/2015/07/02/news/robot_uccide_operaio_in_fabbrica_wolksvagen- 118121393/ link consultato il 19 luglio 2015) [22] E’ stata ad esempio esclusa la responsabilità di chi utilizzi l’animale per svolgere mansioni inerenti la propria attività lavorativa, che gli siano state affidate dal proprietario dell’animale alle cui dipendenze egli presti tale attività (Cass. 10189/2010) [23] L o studio è disponibile al seguente indirizzo https://ildirittodeirobot.files.wordpress.com/2015/04/arms0415_forupload_0.pdf (sito consultato il 19 luglio 2015) [24] Gualdieri M., Diritto e Robot, disponibile all’indirizzo https://ildirittodeirobot.wordpress.com/2015/04/11/diritto-e-robot-di-maurizio-gualdieri/#more-12 (sito consultato il 19 luglio 2015) 10 febbraio 2016