skip to Main Content

Intervista al Prof. Avv. Tommaso dalla Massara. Il caso ChatGPT: tra vecchi e nuovi paradigmi della responsabilità

Tommaso dalla Massara, Professore ordinario nel Dipartimento di Giurisprudenza dell’Università di Roma Tre.

È titolare dei corsi di Istituzioni di diritto romano e di Fondamenti del diritto privato europeo. Ha sempre sviluppato le sue ricerche tanto nel diritto romano quanto nel diritto civile, anche attraverso soggiorni di studio all’estero e sviluppando collaborazioni scientifiche internazionali.
È avvocato dal 2001, dal 2011 ‘of counsel’ di studi associati italiani ed esteri. Nell’Università di Verona è stato coordinatore del dottorato in ‘Diritto privato europeo dei rapporti patrimoniali civili e commerciali’, Delegato del Rettore per ‘Impresa lavoro e professioni’, Presidente del Collegio didattico di Giurisprudenza. Ha collaborato con la Commissione Giustizia della Camera dei Deputati per alcune proposte di legge (in specie, in tema di cessione di partecipazioni e di lite temeraria). È direttore della Collana ‘Bebelplatz’, per Pacini, e della Collana ‘Atlante della cultura giuridica europea’, per Il Mulino. È Condirettore della rivista ‘Storia Metodo Cultura’, per ESI, ed è componente della direzione e di altri comitati di varie riviste italiane e straniere, storico-giuridiche e civilistiche. È Condirettore della ‘Biblioteca Giovanni Pugliese’, per Roma Tre Press, nonché membro di società scientifiche tra cui ‘Associazione Civilisti Italiani’, ‘Società Italiana di Storia del Diritto’, ‘Società Italiana degli Studiosi di Diritto Civile’, ‘Istituto Emilio Betti’. È editorialista del Corriere della Sera per le edizioni di Triveneto ed Emilia-Romagna.

 

 

Il Prof. Avv. Tommaso dalla Massara

 

 

Nel suo recente intervento “Il caso ChatGPT: tra vecchi e nuovi paradigmi della responsabilità”, curato per l’evento dello scorso 13 luglio: Regulatory models and principles to handle and rule Artificial Intelligence in the European and Asia-Pacific Area, ha esaminato i paradigmi della responsabilità nell’ambito dell’intelligenza artificiale. Quali sono le principali sfide che emergono riguardo all’attribuzione della responsabilità legale in situazioni coinvolgenti i sistemi di intelligenza artificiale come ChatGPT? 

La vicenda ChatGPT mi ha fortemente colpito. Quella vicenda impone una riflessione sui modelli generali della responsabilità civile. Per quella che è la mia formazione, osservo i problemi nel raffronto con la tradizione civilistica. Ebbene, credo che tanto il GDPR quanto la proposta di regolamento sulla AI (con le ovvie ed evidenti differenze d’impostazione che intercorrono tra il primo e la seconda) sollecitino da parte dell’interprete uno sforzo di profonda risemantizzazione della parola “responsabilità”. In linea generale, direi che ci stiamo spostando dalla “responsabilità” alla “responsabilizzazione”. In effetti, la frontiera più sfidante mi sembra oggi proprio quella rappresentata dall’idea di “accountability”. Dobbiamo fare i conti con un’idea larga di “rispondere”. Così, l’attenzione s’incentra sull’aspettativa piuttosto che sull’esito – rilevante in termini di danno – di un certo comportamento.

 

L’evoluzione dell’intelligenza artificiale pone nuove sfide al sistema giuridico. Quali sono i principali punti di contatto e di differenza tra i paradigmi tradizionali di responsabilità legale e quelli che riguardano l’AI, come nel caso di ChatGPT? In che modo il caso ChatGPT ha contribuito a definire e adattare i paradigmi tradizionali di responsabilità per rispondere alle complessità legate all’AI?

Come dicevo, l’idea di “accountability” fonda una serie di aspettative rispetto all’adozione di determinate condotte. Il punto prospettico si colloca “ex ante”. Si presti attenzione al fatto che è il soggetto potenzialmente chiamato a rispondere a dover adottare tutte le misure giuridiche, organizzative, tecniche e di sicurezza; e si tratta di misure da individuare in relazione al caso di specie. Insomma, mi colpisce molto questo riposizionamento della linea del “rispondere”. La soglia è collocata molto prima: se si volesse impiegare uno slogan, l’“accountability” finisce per prevalere sulla “liability”.

 

La gestione della responsabilità nell’ambito dell’intelligenza artificiale coinvolge diverse parti interessate, tra cui gli sviluppatori, gli utilizzatori e i proprietari dei sistemi AI. Quali strumenti giuridici possono essere adottati per affrontare situazioni complesse come quelle emerse nel caso di ChatGPT? Come si configurano queste responsabilità a cospetto delle forme tradizionali di responsabilità?

Qualcuno ha osservato che stiamo andando verso una responsabilità “fisiologica”. In effetti, il soggetto gravato della responsabilità è tenuto ad adottare tutte le misure atipiche (spesso piuttosto difficili da determinare) che siano idonee a evitare il danno. Vero è che questa trasformazione della responsabilità civile si era evidenziata già in concomitanza con la centralità assunta dall’idea di rischio: nondimeno, oggi i punti di approdo sono straordinariamente significativi. D’altra parte, la trasformazione dei fondamentali stessi della responsabilità civile si palesa appieno quando si tratti di ricostruire le specifiche regole di regime: per esempio, vero è che l’articolo 82 GDPR evoca le architetture fondamentali dell’art. 2043 c.c. (il soggetto “risponde per il danno cagionato”), ma poi l’esimente è strutturata secondo le logiche della responsabilità contrattuale, ossia in termini di adozione delle azioni idonee a evitare il danno. Peraltro, pare a me che queste trasformazioni sul piano della responsabilità civile si pongano in linea di generale coerenza con quelle che, più in generale, stanno investendo il sistema del diritto privato. In definitiva, cosa s’intende, oggi, quando si parla di diritto privato regolatorio? Siamo a cospetto di un modello di responsabilizzazione il quale trova la sua ragion d’essere nell’intendimento di orientare i comportamenti degli operatori del mercato verso determinati obiettivi. È proprio il paradigma regolatorio quello che impone una certa “compliance”.

 

Nel panorama normativo attuale, come si potrebbe lavorare per sviluppare un quadro giuridico adeguato che tenga conto delle specificità dell’intelligenza artificiale e della sua responsabilità? Quali potrebbero essere i principi guida fondamentali per garantire un equilibrio tra l’innovazione tecnologica e la protezione dei diritti e della sicurezza dei cittadini, soprattutto nell’ambito delle regioni europea e Asia-Pacifica?

Mi pare che l’Unione Europea, nel quadro di regole che mirano a disciplinare il digitale, stia cercando di proporre una nuova generazione di principi: “accountability”, trasparenza, sicurezza e via discorrendo. Spesso di tratta di principi che assumono una connotazione metagiuridica. Soltanto, mi rimane il dubbio se non sia opportuno compiere uno sforzo supplementare per valutare la capacità di “tenuta” degli attrezzi tradizionali del giurista. In conclusione, la tecnologia ci mostra ogni giorno la sua immensa capacità creativa, come pure la sua connaturata problematicità. Non abbandoniamo con troppa fretta gli strumenti che la tradizione civilistica ci ha lasciato in dotazione. Dopotutto, se quegli strumenti sono sopravvissuti a tante rivoluzioni, perché non dovrebbero sopravvivere anche a Chat GPT?

 

Back To Top