skip to Main Content

Anticipatory Compliance e Intelligenza Artificiale: quanto è importante anticipare i futuri plausibili

Il Prof. Giuseppe Vaciago è un Avvocato Cassazionista con esperienza nel diritto penale societario e delle nuove tecnologie. Ha lavorato con importanti società nazionali e internazionali nel settore dell’IT. È specializzato nella protezione dei dati personali e nella consulenza per la redazione dei modelli di organizzazione gestione e controllo. Ha conseguito un PHD in Scienze Giuridiche nel 2011 e ha insegnato presso diverse università italiane e straniere. È autore di diverse pubblicazioni universitarie nel campo del diritto informatico.

 

 

 

Come si distingue l’Anticipatory Risk Management dai metodi tradizionali nella gestione del rischio e come si applica all’IA e alla compliance?

L’Anticipatory Risk Management o Anticipatory Compliance rappresenta un paradigma emergente nella gestione dei rischi che si differenzia in modo netto dall’approccio reattivo classico. Mentre i modelli tradizionali analizzano i rischi partendo dall’esperienza passato, il metodo anticipatorio mira a identificare potenziali pericoli cercando di anticiparli, richiedendo un’analisi prospettica e l’adozione di tecniche di foresight. Questo si traduce in un cambio di paradigma che ritengo necessario in un prossimo futuro sempre più permeato di intelligenza artificiale.

In questo contesto, sarà necessario prevedere come le evoluzioni tecnologiche potranno impattare sulla conformità normativa e sulla società. Per esempio, quando sarà necessario analizzare nuovi modelli di machine learning, l’Anticipatory Risk Management ci spingerà a interrogarci su come questi possano influenzare la privacy degli utenti, la sicurezza dei dati o addirittura produrre effetti discriminatori, e a implementare protocolli di sicurezza e revisione etica ancor prima che il software sia rilasciato. Sono sicuro che questo tipo di metodologia potrà fornire spunti utili per la gestione delle valutazioni di impatto etiche e sociali previste dal Regolamento sull’intelligenza artificiale per i sistemi ad alto rischio.

In termini di compliance, l’Anticipatory Risk Management ritengo possa permettere di implementare sistemi di intelligenza artificiale non solo in grado di rispettare le normative attuali, ma che siano anche flessibili e capaci di adattarsi ai repentini cambiamenti tecnologici.

 

Qual è il ruolo del rischio e della responsabilità nell’uso dell’IA in relazione al GDPR e all’AI Act, e quali sono le implicazioni giuridiche? 

Le più importanti normative a livello Europeo (GDPR, Digital Service Act, Digital Market Act) sono tutte “risk-based”. Guardando al futuro, è inevitabile ritenere che l’abilità nel creare un modello di gestione del rischio efficace sarà cruciale per fare fronte a queste sfide.  L’approccio risk-based assume un ruolo centrale anche nel regolamento sull’Intelligenza Artificiale. La classificazione del rischio passa attraverso vari livelli – inaccettabile, alto, limitato, basso – variabili in base all’AI utilizzata. Questa sorta di “termometro del rischio” porta con sé delle implicazioni giuridiche di notevole portata e una impellente necessità di trovare uno standard di riferimento. Si pensi, ad esempio, al modello forgiato dal NIST nel suo Artificial Intelligence Risk Management Framework, o quello proposto da Oxford (CAP AI) dal “nostro” Luciano Floridi.

Ma cosa intendiamo esattamente per “rischio”? Sebbene possa sembrare una questione banale o pedante, il rischio solitamente è il prodotto di due variabili: la probabilità che si verifichi un evento dannoso e la gravità di tale evento. Da qui deriva il concetto di “rischio inerente”, dal quale ci si aspetta una riduzione al “rischio residuo” a seguito dell’implementazione di presidi di controllo adeguati.

Ma è opportuno guardare oltre. Nell’ambito dello Human Rights, Ethical and Social Impact Assessment richiesto dal regolamento sull’intelligenza artificiale proposto da Alessandro Mantelero nel suo ultimo volume “Beyond Data”, le variabili da considerare possono essere ampliate: potremmo considerare non solo la probabilità e la gravità, ma anche il numero di individui potenzialmente toccati dal rischio, definito come “esposizione”, nonché lo sforzo necessario per risolvere l’eventuale pregiudizio. Questo ci darebbe una comprensione del rischio più granulare.

Potremmo quindi immaginare di introdurre ulteriori variabili insieme alla probabilità e alla gravità, come la capacità di un rischio di essere rilevabile oppure il possibile ammontare della sanzione in caso di una ipotetica violazione. Infine, potrebbe essere il caso di valutare il rischio non solo alla luce delle esperienze passate e dei dati derivanti, bensì contemplando gli scenari futuri.

A New York, nel 1898, il problema principale della città era il letame generato dai 150.000 cavalli che circolavano per le strade ogni giorno. E sembrava fosse impossibile risolvere questo problema, perché invece di ragionare in un’ottica proiettata sul futuro, gli esperti dell’epoca ragionavano senza pensare che potessero esistere tali variabili. Tuttavia, nel 1897 nasceva la Model A della Ford e gli autoveicoli, come è noto, hanno radicalmente cambiato il futuro.

Non dobbiamo, quindi, assolutamente sottovalutare l’importanza del “foresight”, intesa come disciplina dell’anticipazione dei possibili futuri al fine di ipotizzare nuovi scenari di rischio su cui inevitabilmente dovremo confrontarci.

Il foresight rappresenta una modalità per anticipare i nuovi livelli di rischio, sfruttando la lungimiranza per anticipare le sfide dell’era dell’AI. In questo scenario molto complesso è lecito chiedersi se l’intelligenza artificiale ha il potenziale di trovare strumenti legal and ethical-tech per limitare i rischi che essa stessa può generare.

Questo approccio implica non solo una scrupolosa valutazione preliminare ma anche la documentazione e la tracciabilità delle decisioni automatizzate, creando un ambiente in cui la trasparenza e la responsabilità sono di primaria importanza.

 

Potrebbe darci esempi concreti di misure di mitigazione per l’IA ad alto rischio e come possono essere messe in pratica?

Per gestire efficacemente i rischi associati all’Intelligenza Artificiale, è indispensabile adottare una serie di misure di mitigazione ben calibrate. Un esempio di misure di mitigazione dell’intelligenza artificiale ad alto rischio potrebbe includere la verifica continua degli algoritmi per assicurarsi che operino come previsto. Per fare ciò, si potrebbe valutare un audit indipendente che analizza il funzionamento dell’algoritmo e i suoi output per identificare possibili deviazioni dai parametri accettabili, come discriminazioni non intenzionali o decisioni ingiustificate. Si pensi alla start-up Clearbox che da anni sta svolgendo questa attività di validazione e verifica dei sistemi di intelligenza artificiale. Un altro esempio pratico può essere dato dalla creazione di una “sandbox”, dove nuovi sistemi di intelligenza artificiale sono testati in ambienti controllati prima di essere lanciati nel mercato. Questo permette agli sviluppatori di osservare le interazioni dell’intelligenza artificiale in scenari sicuri e gestibili e di apportare modifiche prima del rilascio completo.

Inoltre, le realtà che utilizzano sistemi di intelligenza artificiale possono implementare la supervisione umana in aree critiche, dove decisioni importanti dovrebbero essere validate o prese direttamente da persone, riducendo così la possibilità di errori non previsti o conseguenze negative. La trasparenza è anche una misura chiave: essere aperti riguardo a come funzionano i sistemi di intelligenza artificiale aiuta a costruire fiducia e facilita la revisione esterna e l’input etico. Inoltre, formazione e consapevolezza sono essenziali: il personale deve essere educato sugli aspetti etici dell’intelligenza artificiale e su come reagire in caso di anomalie.

Implementare queste misure richiede un impegno costante e una collaborazione tra esperti tecnici, legali e etici. Bisogna garantire che tali politiche non siano soltanto una formalità, ma vengano regolarmente riviste e aggiornate per riflettere nuovi sviluppi tecnologici e sociali.

In definitiva, le misure di mitigazione sono fondamentali per ogni tecnologia etichettata come ‘ad alto rischio’. Ad esempio, la verifica e il monitoraggio degli algoritmi potranno assicurare che non si sviluppino bias indesiderati. Un’altra misura può essere l’implementazione di meccanismi di ‘kill-switch’, che permettono agli operatori umani di interrompere immediatamente un sistema intelligenza artificiale se questo comporta un rischio imminente. L’efficacia di queste misure dipende dalla loro integrazione sistematica nel ciclo di vita dello sviluppo del software e dalla formazione del personale.

 

Qual è il ruolo dei comitati etici nell’uso dell’IA, e come possiamo misurare la loro efficacia nel garantire un uso etico della tecnologia? 

I comitati etici nell’ambito dell’intelligenza artificiale sono fondamentali per assicurare che l’uso di questa tecnologia rifletta i valori e i principi morali della nostra società. Essi hanno il compito di fornire direttive e valutazioni su questioni complesse che riguardano l’intelligenza artificiale, come il rispetto dei diritti fondamentali.

Per valutare l’efficacia dei comitati etici, potremmo considerare la frequenza e l’impatto delle loro raccomandazioni. Un comitato etico efficace dovrebbe non solo fornire consulenze teoriche, ma anche intervenire attivamente nei processi decisionali, proponendo modifiche concrete e verificando che vengano implementate. Dovrebbero anche essere valutati sulla base della loro capacità di stimolare un dibattito aperto e informare il pubblico, facilitando così una maggiore consapevolezza e partecipazione nella discussione sull’intelligenza artificiale. La trasparenza nelle loro operazioni e decisioni è altrettanto cruciale; senza di essa, non possiamo sapere se stanno davvero influenzando il corso dell’innovazione in modo etico.”

 

Come dovrebbero le considerazioni sociali ed etiche influenzare la progettazione e l’implementazione dell’IA, e potrebbe darci degli esempi specifici?

Le considerazioni sociali ed etiche devono essere integrate nel cuore del processo di progettazione e implementazione dell’intelligenza artificiale. Ad esempio, quando si sviluppano algoritmi per i servizi bancari, questi non devono solo essere precisi ed efficienti, ma anche etici e non discriminatori. Questo significa che durante la progettazione, i team devono includere variabili e controlli che assicurino l’equità, come il bilanciamento dei dataset per prevenire bias basati sul genere o sull’etnia.

Un altro ambito critico è l’intelligenza artificiale in ambito giudiziario. I sistemi AI utilizzati per supportare decisioni giuridiche devono essere attentamente bilanciati per assicurare giustizia e imparzialità. Ciò significa che devono essere privi di pregiudizi che potrebbero influenzare negativamente le sentenze o la valutazione dei casi. Implementare un processo trasparente di verifica e revisione dei dati che alimentano questi algoritmi è quindi indispensabile per mantenere l’integrità del nostro sistema legale.

Inoltre, dobbiamo considerare come l’intelligenza artificiale possa influenzare l’occupazione e l’economia. Mentre automatizziamo sempre più lavori, dobbiamo pensare alle conseguenze a lungo termine sulla forza lavoro e assicurarci che ci siano opportunità di ricollocazione e formazione per chi è più colpito da questa transizione. Ad esempio, un’azienda che implementa robotica avanzata per l’automazione deve parallelamente investire in programmi di formazione per i suoi dipendenti, facilitando la transizione verso ruoli più strategici e meno ripetitivi.

In conclusione, le implicazioni sociali ed etiche dell’intelligenza artificiale devono essere parte integrante delle fasi di concepimento, sviluppo e impiego di queste tecnologie. È un compito che richiede collaborazione tra tutti gli attori coinvolti (informatici, giuristi, esperti di etica, sociologi ed eventualmente psicologi) per garantire che l’innovazione proceda di pari passo con il nostro quadro di valori etici e sociali.

 

 

 

 

 

 

 

 

Back To Top