In occasione della pubblicazione di Cybersecurity e Istituzioni Democratiche. Un’indagine interdisciplinare: Diritto, Informatica e Organizzazione Aziendale,…
Macchine, diritti e umanesimo tecnologico: intervista a Ippoliti Carlotta
Carlotta Ippoliti Martini è RTD B di Diritto privato del Dipartimento di Scienze Giuridiche dell’Alma Mater Studiorum, Università di Bologna, ha conseguito l’Abilitazione Scientifica Nazionale al ruolo di Professore di seconda fascia di Diritto privato. Docente di Diritto privato e di Diritto civile presso l’Università di Bologna, di Diritto civile della Scuola di Specializzazione per le Professioni Legali Enrico Redenti dell’Università di Bologna. Ha tenuto Lezioni nell’ambito del Dottorato di ricerca di plurimi Atenei italiani, è stata ed è componente di progetti di ricerca nazionali e internazionali. Autrice di oltre cinquanta pubblicazioni, tra cui figurano articoli in rivista, capitoli di libro e una monografia (Ippoliti Martini, Principio di precauzione e nuove prospettive della responsabilità civile della Pubblica Amministrazione, CEDAM, Milano, 2022), che è stata premiata con il riconoscimento della qualità di “eccellenza scientifica” alle opere monografiche in materia civilistica pubblicate in lingua italiana conferito dall’Instituto de Derecho Iberoamericano e recensita da Salvatore Patti, in Rivista di diritto civile, 2023, 1, pp. 127-130 e da Borja del Campo Álvarez, in Actualidad jurídica iberoamericana, 2023, 18, pp. 2166-2168.

Carlotta Ippoliti
Nell’ambito del seminario “La Volontà macchinica” – che si terrà il prossimo 9 e 10 settembre e che, nella sua terza edizione, pone al centro della riflessione la domanda “Quale umanesimo tecnologico?” – il suo intervento è dedicato alla parola Macchina. Quali problemi emergono nell’era dell’intelligenza artificiale?
Storicamente l’avvento delle macchine ha significato l’introduzione di strumenti funzionali ad amplificare le capacità umane e ad innescare processi di sviluppo economico e sociale, non di rado accompagnati da “esternalità negative”. In quel contesto la macchina è sempre stata osservata alla stregua di un mezzo costantemente riferibile al controllo umano; pertanto le discipline che ne governano l’utilizzo e le responsabilità che ne scaturiscono sono costantemente permeate da questo postulato.
Nel contesto attuale l’autonomia di azione, la capacità di adattamento a situazioni nuove e quella di influenzare l’ambiente circostante costituiscono i tratti salienti di una nuova tecnologia dirompente che impone di superare il paradigma tradizionale ed induce il giurista ad interrogarsi sulla persistente attualità di un sistema di norme nelle quali i rischi scaturenti dall’utilizzo delle macchine vengono costantemente riferiti alle persone.
Le riflessioni che saranno svolte intorno alla parola Macchina, pertanto, si concentreranno sul nuovo approccio che – muovendo dal modello di intelligenza artificiale antropocentrica delineato dall’AI Act – caratterizzerà l’azione del futuro legislatore e dell’interprete, chiamati a rimodulare le categorie giuridiche in funzione di un nuovo rapporto uomo-macchina.
Le peculiari caratteristiche delle macchine AI-driven potrebbero consentire di conseguire risultati assai significativi in materia di sicurezza pubblica e tutela della persona, ma, al tempo stesso, pongono interrogativi riguardo al rischio di comprimere diritti fondamentali?
Da questo punto di vista è possibile conferire una dimensione più concreta alle affermazioni generali appena svolte. Le macchine dotate di Intelligenza Artificiale, infatti, attualmente consentono il riconoscimento facciale, la rilevazione di emozioni, la profilazione delle persone potenzialmente pericolose attuando il cosiddetto social scoring. Tutte queste potenzialità, nel loro complesso, potrebbero condurre ad un innalzamento assai significativo delle attività di prevenzione e di polizia, garantendo così livelli di sicurezza mai raggiunti nelle precedenti epoche storiche. Cionondimeno l’impiego di questi strumenti costituisce una minaccia assai significativa rispetto a valori e diritti fondamentali che non possono essere messi in discussione. I livelli di controllo potenzialmente realizzabili facendo ricorso alle nuove tecnologie richiederebbero inevitabilmente un’intrusione all’interno della vita privata di ciascun individuo che si risolverebbero non di rado nella compressione della sua dignità e nella perdita del controllo sulle sfere più intime della propria esistenza. Proprio sotto questo profilo si coglie la fondamentale importanza di un intervento legislativo quale l’AI Act, che, adottando un modello di sviluppo antropocentrico, pone chiari limiti all’impiego di tecnologie che, seppure astrattamente utili, portano con sé esternalità negative inaccettabili dal punto di vista della tutela dei diritti fondamentali.
Le riflessioni che riguardano gli aspetti a cui è appena stato fatto cenno possono avere una portata più ampia e, in un certo senso, sistematica estendendosi potenzialmente ad ogni genere di situazione nella quale viene in considerazione l’esigenza di individuare un punto di equilibrio nella tutela di diritti fondamentali potenzialmente antagonistici?
È esattamente questo l’aspetto più rilevante connesso all’incessante diffusione di macchine AI-driven: la necessità di valutare in via preventiva gli effetti che l’uso di sistemi automatizzati può produrre sui diritti fondamentali. Anche sotto questo profilo riveste un ruolo fondamentale la scelta compiuta dal legislatore dell’Unione Europea introducendo il Fundamental Rights Impact Assessment (FRIA), che costituisce lo strumento attraverso il quale garantire a livello sistemico il principio secondo cui i sistemi di intelligenza artificiale devono diffondersi secondo un modello antropocentrico. Proprio tale strumento induce l’interprete ad una complessiva rilettura delle norme civilistiche tradizionali in materia di tutela dei diritti della persona, di adempimento contrattuale e di responsabilità civile. In un futuro scenario caratterizzato dall’incedere di nuove macchine intelligenti, infatti, la mancata adozione di un modello di Fundamental Rights Impact Assessment da parte di un fornitore o utilizzatore di sistemi di IA potrebbe convertirsi in una colpa professionale e dare luogo all’applicazione di rimedi civilistici funzionali al risarcimento per i danni cagionati.
Le capacità di “adattamento”, di autoapprendimento e di autonomia che caratterizzano le nuove macchine possono forse far apparire obsoleto l’approccio tradizionale sotteso alla disciplina in materia di sicurezza dei prodotti?
L’insieme delle regole che governano la sicurezza dei prodotti costituì, ormai tre decenni orsono, un progresso epocale rispetto all’obiettivo di garantire la tutela della salute dei consumatori. Quel complesso di regole, nato in un contesto produttivo nel quale le macchine mantenevano tendenzialmente inalterate le loro prestazioni nel corso dell’intero ciclo vitale, appare meritevole di una revisione in uno scenario segnato dall’incedere di nuove macchine capaci di evolvere quotidianamente in virtù di processi di autoapprendimento e adattamento. Proprio queste caratteristiche sono alla base di un nuovo approccio alla sicurezza che, anche attraverso strumenti quali il monitoraggio post-marketing, introduce un concetto di controllo costante, funzionale ad adattare la pretesa di sicurezza in funzione della plasmabilità della macchina AI-driven. Da questo punto di vista emerge ulteriormente l’utilità dell’approccio interdisciplinare che caratterizza i seminari in tema di Volontà Macchinica. Nel nuovo modello di “sicurezza adattativa”, infatti, quella necessaria complementarietà tra la dimensione tecnica e quella legislativa, già presente nel sistema attuale, viene portata a definitivo compimento.





