skip to Main Content

Intervista al Prof. Lorenzo Picotti. Un inquadramento dei profili penali della sanità digitale.

Il Prof. Lorenzo Picotti è professore ordinario di Diritto Penale dal 1995 presso l’Università di Trento e dal 2004 fino al 2023 presso l’Università di Verona. Attualmente è professore a contratto per il corso di Diritto penale dell’informatica presso il Dipartimento di Scienze giuridiche della stessa Università e avvocato del Foro di Verona dal 1979. Dopo la laurea in Giurisprudenza presso l’Università di Bologna nel 1976, ha svolto intensa attività di ricerca scientifica, con periodi all’estero finanziati da istituzioni italiane e tedesche. Ha coordinato o diretto molteplici ricerche scientifiche di rilevo nazionale e internazionale e ha pubblicato oltre 250 contributi scientifici in diverse lingue. Ha organizzato e partecipato a numerosi congressi nazionali e internazionali ed è membro di comitati scientifici e di referaggio di riviste italiane e straniere. Attualmente è membro del Comitato scientifico e del Consiglio di direzione dell’Association Internationale de Droit pénal. Ed è Presidente dell’Associazione per gli scambi culturali fra giuristi italiani e tedeschi.

 

Il Prof. Lorenzo Picotti

 

Quali sono le implicazioni legali e giuridiche del ricorso a sistemi di intelligenza artificiale (AI) nel campo della sanità, considerando i principi di legalità e di personalità della responsabilità penale?

L’introduzione sempre più estesa, nel campo della sanità, di sistemi di intelligenza artificiale porta certamente enormi vantaggi, in quanto garantiscono un miglioramento delle previsioni, un’ottimizzazione degli interventi e dell’assegnazione delle risorse, la personalizzazione dei servizi, e soprattutto, sul piano terapeutico, la sicurezza e tempestività delle diagnosi, nonché l’efficacia e precisione delle cure (si pensi alla chirurgia robotica di precisione, poco invasiva, ad esempio per interventi oftalmici, o per calcoli renali o biliari, ecc.).

Ma tali sistemi sono anche fonte di nuovi tipi di rischi, tanto più insidiosi, in quanto difficili da riconoscere ed imputare, e di conseguenza da contrastare tempestivamente, per la loro novità e per la complessità dei profili tecnici ed organizzativi che vi sono implicati.

Certamente non può lasciarsi al mercato la risposta a tali rischi, sia perché la diffusione di questi sistemi è destinata ad estendersi, con un potenziale aumento del c.d. gap di responsabilità, sia perché possono essere minacciati od offesi diritti fondamentali e beni giuridici primari della persona e della collettività, quali la vita, l’integrità fisica e psichica, la salute, la libertà di autodeterminazione rispetto al trattamento sanitario, la privacy e la tutela dei dati personali, la fede pubblica, il buon andamento della pubblica amministrazione nella gestione dei servizi e delle risorse in un campo che è di centrale importanza sociale.

È quindi stata evidenziata ai più alti livelli la necessità di un intervento giuridico regolatore, come si legge anche nel Regolamento dell’Unione europea sull’intelligenza artificiale (c.d. AI-Act), prossimo alla sua entrata in vigore, che ravvisa espressamente nel settore sanitario uno di quelli “ad alto rischio”, per l’importanza dei diritti ed interessi in gioco ed il grado di probabilità che possano essere offesi, con ogni conseguenza sul piano della disciplina concernente la loro produzione, messa in commercio, monitoraggio, utilizzazione.

Ma tale impetuoso sviluppo fa emergere anche la necessità di un adeguato intervento del diritto penale, per presidiare efficacemente le regole di disciplina e di prevenzione dei rischi che vengono introdotte o sono in corso di introduzione, e garantire, con la minaccia e l’applicazione della sanzione più grave di cui l’ordinamento dispone, una forte tutela dei menzionati beni giuridici e diritti fondamentali, responsabilizzando di conseguenza gli autori, comprese le società commerciali e gli enti, cui va ricondotta la lunga catena che può andare dall’ideatore e programmatore, al produttore, fornitore, manutentore, fino a chi ne dispone l’utilizzo, oltre all’utente finale.

Poiché però il ricorso al diritto penale deve rappresentare l’ultima ratio dell’ordinamento, con cui si può – e si deve – intervenire solo quando altre tecniche alternative di tutela, ad esempio di natura civilistica od amministrativa, siano per loro natura inadeguate o, comunque, insufficienti a garantire la protezione necessaria, il criterio guida può essere quello secondo cui, se le offese ai predetti diritti e beni giuridici sono già oggi punibili quando siano imputabili ad un soggetto umano, non possono restare impunite solo perché vengano realizzate da o tramite un sistema di intelligenza artificiale.

L’intervento del diritto penale deve però anche rispettare i superiori principi garantistici imposti dalla Costituzione e dalle Carte internazionali, quali quelli di legalità e di tassatività (artt. 25, comma 2, Cost., 7 CEDU, 49 CDFUE), che vietano di estendere per analogia precetti e sanzioni, per cui tocca al legislatore colmare le eventuali lacune che si palesassero. Mentre i principi di personalità e di colpevolezza, parimenti da garantire nella materia penale, ai sensi dell’art. 27, commi 1 e 3, Cost., oltre che della giurisprudenza della Corte di Strasburgo sull’art. 7 Convenzione europea dei Diritti dell’uomo, relativa all’esigenza di “prevedibilità” della sanzione penale per l’autore del comportamento punibile, portano ad escludere ogni forma di responsabilità oggettiva, vale a dire per un fatto che non sia “proprio” non solo sotto il profilo causale, ma anche dell’elemento soggettivo del dolo o, quantomeno della colpa. Soprattutto rispetto a quest’ultima forma di colpevolezza, che può emergere nell’utilizzo di base lecito dei sistemi in esame, come accade nella stragrande maggioranza dei casi nel campo della sanità, si dibattono le più delicate questioni, poste dall’“imprevedibilità” da parte della singola persona umana che “sta dietro” ad essi, del concreto esito logico od operativo (output) cui possono giungere. Per cui occorre rielaborare ed adattare i criteri d’imputazione e di rimproverabilità giuridica, a partire da modelli già introdotti nel campo della responsabilità da reato degli enti, in quello della responsabilità anche penale da prodotto difettoso, nonché per gli infortuni e le malattie professionali nell’ambito della tutela della salute e sicurezza sui luoghi di lavoro.

Al riguardo va segnalato l’importante contributo dato dall’Association Internationale de Droit Pénal (AIDP), che dedicando il suo prossimo XXI Congresso internazionale, che si terrà a Parigi nel giugno 2024, al tema “Artificial Intelligence and Criminal Law”, ha trattato gli aspetti di parte generale nei lavori della prima sezione, nel cui ambito è stata approvata, all’esito del colloquio internazionale svoltosi a Siracusa nel 2022 sul tema “Traditional Criminal Law Categories and AI: Crisi or Paligenesis? “, una risoluzione, contenente raccomandazioni specifiche in materia, sulla base dei 23 rapporti nazionali pervenuti e del rapporto generale curato del sottoscritto (tali atti, con una selezione dei rapporti nazionali, sono pubblicati in Revue Internationale de Droit Pénal, Nr. 1/2023).

 

Come si configura il consenso informato nel contesto del trattamento medico chirurgico tramite AI e quali sono le implicazioni sul piano della responsabilità penale in caso di invalidità del consenso?

Notoriamente il consenso libero ed informato è un presupposto generale di liceità dei trattamenti sanitari, che discende dalla Convenzione di Oviedo del 1997, dalla consolidata interpretazione estensiva della Corte di Strasburgo relativa all’art. 6 CEDU sul diritto alla vita privata, vincolante nell’ambito dell’Unione europea per il richiamo dell’art. 52 CDFUE; mentre nel nostro ordinamento la fonte essenziale è data dall’art. 32 Cost., che ha trovato un’importante articolazione positiva negli artt. 1-3 legge 22.12.2017, n. 219, in linea con le molteplici previsioni del Codice di deontologia medica (cfr. i relativi artt. 16 e 33-39).

La questione che si pone è come si debba atteggiare la disciplina e la prassi del consenso infornato, se intervengono sistemi di intelligenza artificiale in fase di diagnosi o di cura, od anche nell’uso di dispositivi a domicilio che ricorrano a tali tecnologie, spesso con connessioni a distanza.

Rispetto all’obbligo di fornire un’informazione completa e chiara da parte del medico o della struttura, si frappongono (anche a prescindere dai limiti posti dal segreto industriale) gli ostacoli della c.d. opacità con cui i sistemi di intelligenza artificiale operano, la cripticità del linguaggio che si utilizza, i contenuti dei data base e dei possibili bias cognitivi, gli effetti di imprevedibilità del machine learning o addirittura l’“imperscrutabilità” delle black box.

La soluzione non può essere l’affidamento cieco del paziente e, per certi aspetti, anche del medico, nell’operato del sistema di intelligenza artificiale, vale a dire nelle “decisioni” da esso suggerite od attuate, che possono presentare anche deficit etici, dato che nelle scelte del medico persona umana si deve o si può tenere conto di circostanze e caratteristiche personali o variabili di contesto, che possono condizionare le decisioni sul trattamento in termini diversi rispetto a quelli cui può pervenire l’algoritmo, sulla base, ad es., di dati statistici e cognitivi generali relativi soltanto alla patologia da trattare (si fa l’esempio di un tumore maligno genitale di una giovane donna, in cui si debba optare fra un intervento demolitivo ed uno conservativo).

Certamente il paziente deve essere reso “edotto” del ricorso ad un sistema di intelligenza artificiale nel trattamento cui viene sottoposto, come ha affermato condivisibilmente anche il Comitato nazionale di bioetica e come si desume dall’obbligo generale di “trasparenza” stabilito dall’AI Act, secondo si deve sempre dare l’informazione se un sistema intelligente stia interagendo con persone umane.

Il problema che sorge è però quello di stabilire fino a che punto l’informazione debba e possa essere dettagliata anche dal punto vista tecnico (sul contenuto e sull’operatività degli algoritmi, sulle tecniche di machine learning, sul novero dei rischi tecnici che possano prevedersi, ecc.), affinché il consenso possa dirsi consapevolmente prestato.

L’informazione non deve essere infatti “eccessiva”, sia perché può essere opportuno tacere nei dettagli l’intero novero dei possibili rischi, sia perché non si deve andar oltre la “capacità di comprensione” – anche dal punto di vista tecnico – del destinatario. Ma un’informazione anche sul possibile malfunzionamento del sistema dovrebbe essere data, pur se fosse statisticamente raro, ma non del tutto imprevedibile.

Di certo non basta dar rilievo alla voluntas della “parte debole”, che non si trova in posizione di parità: per cui occorre stabilire a livello pubblicistico limiti e garanzie per tutelarla (come avviene a tutela di lavoratori, consumatori, investitori, ecc.).

Sul piano della responsabilità penale, tuttavia, la questione è sdrammatizzata dall’evoluzione della giurisprudenza interna, perché – fermo restando che, se l’informazione non è “adeguata”, il consenso non è valido – un tale vizio non ha di per sé valenza causale rispetto alla colpa per l’evento costitutivo di un reato quali le lesioni personali o l’omicidio colposi.

La responsabilità penale può, infatti, sorgere solo nel caso in cui siano state omesse dolosamente informazioni, o siano date informazioni volutamente inveritiere per acquisirlo. Altrimenti deve sussistere una violazione della lex artis, che abbia efficienza causale per la determinazione dell’evento, ricadendosi nella sopra richiamata questione della colpevolezza dell’agente umano di fronte all’uso di sistemi di intelligenza artificiale.

 

Quali sono le sfide relative alla privacy, alla cybersecurity e alle falsità informatiche derivanti dalla digitalizzazione dei dati sanitari e quali sono le possibili implicazioni penali per la violazione della disciplina del GDPR e del Codice privacy?

3.1 Muovendo dalla privacy, la digitalizzazione della sanità implica una nuova modalità di raccolta e trattamento di “dati particolari” quali sono quelli concernenti la salute, che alla stregua del vigente Regolamento generale dell’Unione europea sulla tutela dei dati personali (GDPR) rientrano nei “dati appartenenti a categorie particolari”, qualificati precedentemente nel Codice privacy come “dati sensibili”, sulla base delle distinzioni portate dalla oggi abrogata Direttiva 95/46. Pertanto, il consenso al relativo trattamento, che deve essere dato per uno o più “scopi specifici”, va richiesto e prestato sulla base di un’informativa precisa, che deve includere il riferimento alla digitalizzazione dei dati ed all’eventuale ricorso a sistemi di intelligenza artificiale, in termini simili a quanto già sopra si è detto a proposito del distinto consenso al trattamento sanitario.

Certamente la digitalizzazione ed il ricorso a sistemi di intelligenza artificiale, cui essa apre la strada, rappresenta un fattore “antagonista” rispetto al controllo del flusso dei propri dati ed al principio di minimizzazione, data la raccolta massiva e la memorizzazione estesa nel tempo, nonché la comunicazione e lo scambio fra diversi operatori, strutture e parti, che la stessa digitalizzazione consente, e che appare sempre più necessaria per garantire la maggior precisione ed accuratezza possibili nella diagnosi e nel trattamento sanitario.

Non si tratta dunque di impedire la raccolta, il trattamento e l’utilizzo dei dati concernenti la salute, che è a favore degli stessi interessati, oltre che della collettività, ma piuttosto di evidenziare i limiti e le condizioni da osservare per tale trattamento, in tutte le sue diverse fasi, applicando la disciplina delineata dal GDPR.

Ad es., per il training dei sistemi si dovrebbe ricorrere ai c.d. dati sintetici od a “dati derivati”, che tramite l’anonimizzazione e/o la pseudonimizzazione consentano di non identificare (se non in ipotesi tassative) la persona dei singoli interessati cui i dati si riferiscono, pur acquisendo le informazioni utili per l’elaborazione statistica, diagnostica, scientifica, ecc.

E deve anche per questo aspetto rispettarsi il principio di trasparenza del trattamento, enunciato già dall’art. 5 par. 1, lett. a), GDPR, che potrebbe entrare in conflitto con la menzionata “opacità” dei sistemi di intelligenza artificiale, di cui occorre garantire invece l’esplicabilità. Accanto all’AI Act, che si occupa dell’utilizzo e della “governance dei dati” anche ai fini del training di detti sistemi, viene in rilievo in questo campo la proposta di “Regolamento UE per uno spazio europeo dei dati sanitari”, che tiene conto degli sviluppi del machine learning e dell’importanza dell’utilizzo e “riutilizzo” di dati personali, su “larga scala”, e riconosce più in generale l’“interesse pubblico nel settore della sanità pubblica”. È chiaro, infatti, che il trattamento dei dati sanitari può trovare una base giuridica anche diversa dal consenso, ad es. per finalità di “ricerca scientifica” o per “fini statistici”: per cui si può superare, nel rispetto delle condizioni stabilite, anche il problema dell’eventuale revoca del consenso stesso.

 

3.2. In quest’ambito, non può tacersi il rilievo che assume il tema della cybersecurity, con relative ricadute penali. Da un lato vi sono specifici obblighi, incombenti sui titolari e responsabili dei sistemi, per valutare e prevenire i rischi non solo di attacchi informatici, ma anche di incidenti e malfunzionamenti, predisponendo ed aggiornando le necessarie misure di sicurezza, e monitorandone l’efficienza, anche rispetto ad eventi che non integrino già di per sé fattispecie penali (quali l’accesso abusivo ad un sistema informatico o telematico, che deve essere “protetto da misure di sicurezza” per meritare tutela penale ex art. 615 ter c.p.). Notoriamente le condotte criminose possono realizzarsi anche a distanza (si pensi in particolare ai rischi che sotto questo aspetto potrebbe presentare la Telemedicina, se le connessioni non fossero adeguatamente protette, anche da parte dell’utente stesso), ed oggi anche mediante un utilizzo criminoso di sistemi di intelligenza artificiale, rispetto a cui occorre evidentemente attivarne di antagonisti. E vengono in rilievo anche i possibili danneggiamenti informatici realizzabili in danno degli stessi di sistemi di intelligenza artificiale, che possono riguardare singoli dati o software, cui possono applicarsi gli artt. da 635-bis a 635-quinquies c.p., che distinguono, per graduare l’intensità della risposta penale, dati e sistemi, privati e pubblici, o di interesse pubblico.

3.3. Infine, un cenno merita anche il tema delle falsità materiali ed ideologiche che riguardino dati e documenti informatici contenuti, ad esempio, nel fascicolo sanitario elettronico o nelle cartelle sanitarie elettroniche, eventualmente riconducibili anche all’impiego di sistemi di intelligenza artificiale. Il nostro codice penale, con l’art. 491-bis già estende espressamente l’applicabilità di tutti i delitti di falsità in atti, offensivi della c.d. fede pubblica, alle falsità relative a “documenti informatici pubblici”, quali sono certamente quelli in questione, essendo tali tutti quelli che, applicando la definizione del Codice dell’Amministrazione digitale, costituiscono “la rappresentazione informatica di atti, fatti o dati giuridicamente rilevanti” (art. 1, lett. p) d.lgs. 82/2005 e succ. modifiche), redatti od anche ricevuti o conservati da un pubblico ufficiale nell’esercizio delle sue funzioni.

Qualche nuovo problema potrebbe però suscitare l’attribuzione di una falsità materiale od ideologica al soggetto umano che “stia dietro” l’impiego di un sistema di intelligenza artificiale, cui debba farsi risalire la “contraffazione” o l’“alterazione” del documento informatico, ovvero la “difformità dal vero” dell’attestazione, avente valore probatorio, di atti e fatti giuridicamente rilevanti.

Trattandosi di delitti, per la loro punizione è comunque sempre necessario che sussista anche il dolo del soggetto umano, vale a dire la sua “volontà consapevole” di realizzare una falsità tramite detti sistemi, che fungerebbero dunque da mero strumento per realizzare la propria intenzione criminosa. Per cui non può bastare l’oggettività del falso output, che potrebbe essere frutto dell’autonoma acquisizione di dati ovvero dell’autonomo trattamento realizzati dal o tramite il sistema di intelligenza artificiale, non essendo punibile la falsità per colpa.

 

Le violazioni della disciplina relativa al trattamento dei dati personali potrebbero aver rilievo penale, ed integrare in specie i delitti previsti dagli artt. 167 (“Trattamento illecito di dati”) e 167-bis (“Comunicazione e diffusione illecita di dati personali oggetto di trattamento su larga scala”) del nostro Codice privacy, nella formulazione portata dal d.lgs. 101/2018, di adeguamento al citato GDPR.

In particolare, il comma 2 dell’art. 167, punisce con la reclusione da uno a tre anni (“salvo che il fatto costituisca più grave reato”) chi, al fine “di trarre per sé o per altri profitto ovvero di arrecare danno all’interessato” – fine che deve essere perseguito con la condotta dell’agente, ma che non è necessario che sia oggettivamente raggiunto, perché si abbia la consumazione del reato – procede al trattamento dei dati personali di cui al sopra citato art. 9 (oltre che art. 10 concernente i dati giudiziari, che qui non interessano) del menzionato Regolamento europeo (GDPR), “in violazione (…) delle misure di garanzia di cui all’articolo 2-septies” del Codice privacy – che riguardano il trattamento dei dati genetici, biometrici, relativi alla salute – e con tale condotta “arreca nocumento” all’interessato. Il comma 3 aggiunge che la stessa pena si applica altresì a chi, al medesimo fine ed arrecando nocumento, procede “al trasferimento dei dati personali verso un paese terzo o un’organizzazione internazionale al di fuori dei casi consentiti”.

Si tratta quindi di fattispecie delittuose strutturate quali norme c.d. “sanzionatorie” degli specifici precetti extrapenali fissati dal GDPR e dal Codice privacy, che vengono espressamente richiamati, e dai quali si ricava dunque il contenuto oggettivo delle condotte punibili, che devono però essere sorrette, ai fini penali, anche dal dolo di chi agisce e dal fine specifico sopra richiamato.

Altrettanto vale per l’art. 167-bis Codice privacy, introdotto dal citato d.lgs. 101/2018, che considera la nuova dimensione globale del web e la tematica dei big data, perché punisce più gravemente, con la reclusione da uno a sei anni (salvo sempre che il fatto costituisca più grave reato), chi, al fine richiesto anche per gli altri reati sopra menzionati, “comunica o diffonde un archivio automatizzato o una parte sostanziale di esso contenente dati personali oggetto di trattamento su larga scala, in violazione degli articoli 2-ter, 2-sexies e 2-octies” dello stesso Codice privacy; nonché chi, ai sensi del comma 2, “comunica o diffonde, senza consenso” un tale archivio automatizzato o una sua parte sostanziale, “quando il consenso dell’interessato è richiesto per le operazioni di comunicazione e di diffusione”.

Bisogna, dunque, risalire alla disciplina dell’art. 2-sexies Codice privacy, riguardante il “Trattamento di categorie particolari di dati personali necessario per motivi di interesse pubblico rilevanti”, individuati dall’art. 9, par. 1, GDPR.

Sono così ammessi, dalla norma interna, i relativi trattamenti se siano “necessari per motivi di interesse pubblico rilevante ai sensi del paragrafo 2, lettera g)”, del medesimo articolo 9 GDPR, “qualora siano previsti dal diritto dell’Unione europea ovvero, nell’ordinamento interno, da disposizioni di legge o di regolamento o da atti amministrativi generali che specifichino i tipi di dati che possono essere trattati, le operazioni eseguibili e il motivo di interesse pubblico rilevante, nonché le misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato”.

Il comma 2 dell’art. 2-sexies del Codice privacy precisa poi che “si considera rilevante l’interesse pubblico relativo a trattamenti effettuati da soggetti che svolgono compiti di interesse pubblico o connessi all’esercizio di pubblici poteri” nelle materie puntualmente indicate, fra cui, alla lettera u), sono menzionati i “compiti del servizio sanitario nazionale e dei soggetti operanti in ambito sanitario, nonché compiti di igiene e sicurezza sui luoghi di lavoro e sicurezza e salute della popolazione, protezione civile, salvaguardia della vita e incolumità fisica”.

A tale disciplina di carattere generale, che può certamente applicarsi ai trattamenti operati anche tramite sistemi di intelligenza artificiale, si aggiunge infine quella più specifica del comma 1-bis, introdotto dal d.l. 139/2021, convertito dalla legge 205/2021, che riguarda fra l’altro l’utilizzo dei dati del “Fascicolo sanitario elettronico”, in forza del quale “I dati personali relativi alla salute, privi di elementi identificativi diretti, sono trattati, nel rispetto delle finalità istituzionali di ciascuno, dal Ministero della salute, dall’Istituto superiore di sanità, dall’Agenzia nazionale per i servizi sanitari regionali, dall’Agenzia italiana del farmaco, dall’Istituto nazionale per la promozione della salute delle popolazioni migranti e per il contrasto delle malattie della povertà e, relativamente ai propri assistiti, dalle Regioni anche mediante l’interconnessione a livello nazionale dei sistemi informativi su base individuale del Servizio sanitario nazionale, ivi incluso il Fasciolo Sanitario Elettronico (FSE), aventi finalità compatibili con quelle sottese al trattamento, con le modalità e per le finalità fissate con decreto del Ministro della salute, ai sensi del comma 1, previo parere del Garante, nel rispetto di quanto previsto dal Regolamento, dal presente codice, dal codice dell’amministrazione digitale, di cui al decreto legislativo 7 marzo 2005, n. 82, e dalle linee guida dell’Agenzia per l’Italia digitale in materia di interoperabilità”.

Concludendo: vi è certamente un’adeguata, anche se complessa, base giuridica per il trattamento dei dati sanitari digitalizzati, al di là del perimetro individuale dei singoli pazienti per cui siano raccolti, compresi quelli del “Fascicolo sanitario elettronico”. Essi possono essere trattati quindi anche da sistemi di intelligenza artificiale, purché nel rispetto dei limiti e delle garanzie sopra richiamate, la cui violazione, se posta in essere volontariamente ed in presenza degli altri requisiti previsti dalle fattispecie citate, può integrare i relativi delitti.

La medesima disciplina richiede però debite distinzioni, per applicarsi anche alle “Cartelle sanitarie elettroniche”, contenenti altresì dati amministrativi su prestazioni, dispositivi sanitari, e quant’altro, tenendo conto che possono venire in rilievo in questi casi le tematiche dell’Internet of Things (IoT), per le caratteristiche di moltissimi dispositivi sanitari, che dialogano automaticamente con sistemi – per lo più di intelligenza artificiale – di produttori, fornitori, manutentori, od anche con altri apparecchi. Per cui gli incroci fra tali molteplicità di dati potrebbero portare alla re-identificazione degli interessati, nonostante l’anonimizzazione o pseudonimizzazione operata, ovvero a “dati personali derivati” od anche “sintetici”, con le relative problematiche, che esulano però dalla mia odierna intervista.

Back To Top