Il 5 novembre 2024 si è tenuto presso il Museo della Storia della Medicina a…
Intervista alla Dott.ssa Silvia De Conca. IoT, IA Emotiva, realtà virtuale: le nuove frontiere della sorveglianza e la protezione dei diritti fondamentali
Silvia De Conca è Professoressa Assistente di Diritto e Tecnologia presso il Dipartimento di Transnational Legal Studies della Vrije University Amsterdam (VU) e membro del consiglio direttivo dell’Amsterdam Law & Technology Institute (ALTI) presso la VU. Silvia è anche co-presidente del gruppo di lavoro “Human Rights in the Digital Age” presso la Rete olandese per la ricerca sui diritti umani (NNHRR), ed è membro del gruppo di lavoro WG 9.6 / 11.7 Information Technology: Misuse & the Law della International Federation for Information Processing (IFIP), che supporta l’UNESCO su questioni di digitalizzazione e diritti individuali.
Ha conseguito una laurea specialistica in giurisprudenza con lode presso l’Università di Roma Tre, una laurea specialistica in Diritto della Tecnologia presso la London School of Economics and Political Science, ed un Dottorato di Ricerca in diritto delle nuove tecnologie presto la Tilburg University. La sua ricerca si concentra su IoT e smart home, privacy e la protezione dei dati, i dark pattern, l’intelligenza artificiale e la responsabilità civile.
Silvia De Conca, PhD Vrije Universiteit Amsterdam
Nel Suo intervento, per l’evento Verso un diritto dell’intelligenza artificiale lezioni apprese e sfide future del 14 settembre u.s., ha menzionato come tecnologie come l’IoT e l’IA Emotiva possano facilitare la sorveglianza. Secondo Lei, quali sono le caratteristiche di queste tecnologie che contribuiscono a creare tensioni ed interferenze con i diritti fondamentali, come la privacy e l’autonomia individuale?
Il termine sorveglianza spesso richiama alla mente intercettazioni telefoniche, il tracciamento dei movimenti di un sospetto tramite la geolocalizzazione del cellulare, o l’uso di microspie per le intercettazioni ambientali. Quello della sorveglianza, però, è uno dei settori che più di tutti hanno beneficiato della rivoluzione digitale, e in cui l’innovazione tecnologica gioca un ruolo importantissimo. Al giorno d’oggi la sorveglianza, in particolare quella portata avanti dalle agenzie di informazione e sicurezza (i servizi segreti o d’intelligence, in altre parole), si basa in larga parte sull’analisi dei pacchetti di dati generati dalle attività online dei cittadini. Questi dati vengono acqisiti in vari modi: i) possono essere richiesti, tramite apposite procedure, ai fornitori di servizi di telecomunicazione, ma anche ai fornitori di altri servizi online come Google, Amazon, o Meta (Facebook/Instagram); ii) possono essere intercettati direttamente e in massa dall’infrastruttura telematica (per esempio dalla dorsale informatica); iii) un metodo meno noto ma molto usato é quello dell’acquisto di grandi quantitá di dati aggregati da operatori commerciali che va sotto al nome di Commercially Available Information (CAI o Informazioni Disponibili Commercialmente).
Mentre fino a pochi anni fa la sorveglianza digitale era limitata alle azioni compiute online tramite computer o smartphone, la situazione va gradualmente cambiando, in particolare per via della convergenza di tecnologie come l’Internet of Things (IoT) e l’Intelligenza Artificiale (IA). I dispositivi e i servizi risultanti da questa convergenza rappresentano una nuova frontiera nella creazione, raccolta, ed elaborazione dati. La sorveglianza digitale dei dati generati dall’IoT, unita alle possibilità di analisi data dall’IA, alterano profondamente gli equilibri democratici, indebolendo le garanzie costituzionali. Tutto ciò, inoltre, avviene al di fuori di quelle che sono le normali e ragionevoli aspettative di riservatezza dei cittadini, che sono all’oscuro di quali e quanti dati siano effettivamente a disposizione di forze dell’ordine e servizi segreti.
Ad esempio, nelle smart home, i dispositivi IoT e smart mediano molte delle nostre azioni quotidiane, dal guardare la televisione al fare il caffè, dal lavarsi i denti al fare il bucato, e perfino accendere o spegnere la luce e dormire. I sensori dei dispositivi raccolgono dati ambientali, comportamentali, vocali e visivi e li trasmettono nel Cloud, dove vengono conservati e usati per elaborare i profili degli abitanti. La quotidianità è quindi tracciata sia online che offline e trasformata in un flusso continuo di informazioni personali che escono dalla casa e vengono elaborate e scambiate dalle aziende. Questa trasformazione non riguarda solamente l’ambiente casalingo, ma opera anche a livello della persona, con i cosiddetti wearables (per esempio gli smart watch e gli anelli smart per tracciare il sonno). Queste tecnologie digitali offrono uno spazio di interazione sempre più mediato, dove le nostre esperienze quotidiane (e addirittura i nostri movimenti e dati fisiologici) vengono gestite e profilate dalle piattaforme tecnologiche.
Un’ulteriore evoluzione è rappresentata dalla Emotion Recognition Technology (ERT) o riconoscimento delle emozioni, una branca dell’IA che identifica le emozioni, i sentimenti, e altri stati emmotivi e mentali, basandosi sul riconoscimento facciale, vocale o comportamentale e sui dati biometrici. L’ERT é usata sia dai privati che da enti pubblici. Anche nella smart home, per esempio, alcuni produttori stanno sperimentando l’uso del riconoscimento delle emozioni per aggiustare l’ambiente domestico: ad esempio, se la smart TV nota che l’individuo é triste, le luci nella sala si fanno piú delicate e la TV propone programmi e show compatibili con tale stato emotivo. Ma non finisce qui. Esperimenti in questo settore avvengono anche nei settori pubblici, come l’uso della macchina della verità negli aeroporti da parte dell’UE e in distretti di polizia negli Stati Uniti, o i brevetti per il riconoscimento delle emozioni in negozi e stazioni ferroviarie per prevenire crimini o disordini. Queste tecnologie possono interferire con la sfera più privata dei cittadini, penetrando una dimensione che normalmente dovrebbe rimanere nascosta allo scrutinio altrui. Nonostante la crescita di questo mercato, molti esperti esprimono preoccupazioni, sottolineando l’assenza di consenso sui concetti psicologici di base, come l’esistenza di emozioni universali, e avvertono del pericolo di una “frenologia 2.0”.
Tutte le tecnologie sopracitate presentano delle caratteristiche comuni che le rendono particolarmente rilevanti nel contesto della sorveglianza:
- L’uso di Intelligenza Artificiale;
- Una interfaccia uomo-macchina sempre più onnipresente, invisibile e/o invasiva;
- L’intermediazione del reale: gli oggetti (e quindi le società) mediano le azioni quotidiane;
- Un effetto avvolgente: permeano tutti i settori e col tempo diventa impossibile trovare alternative meno invasive.
Queste caratteristiche aumentano la raccolta dati e profilazione e rendono più trasparente e accessibile la sfera privata dei cittadini.
Ha parlato di intermediazione tecnologica del reale, in che modo pensa che questa intermediazione possa influenzare, attualmente e nel prossimo futuro, il nostro rapporto con la società e la nostra capacità di esercitare il libero arbitrio?
Il discorso si articola su più piani. Da un punto di vista prettamente filosofico, ci sono filosofi della tecnologia quali Peter Paul Verbeek e Olia Kudina che sottolineano come tutte le innovazioni tecnologiche, incluse quelle digitali, facciano da intermediari tra l’individuo e l’altro da sè, la realtà che li circonda. Questo perché la tecnologia, con le relative affordance, influenza il modo in cui individui e società attribuiscono valori morali all’ambiente che li circonda. La presenza di IoT nella smart home, per esempio, trasforma la casa da ambiente privato in cui gli individui possono dimettere le maschere che usano in pubblico, a luogo di produzione: gli individui producono dati e, conseguentemente, valore economico e allo stesso tempo vengono esposti a pubblicitá, sponsorizzazioni, etc. Gli abitanti peró non beneficiano del valore economico generato dai dati della smart home, al contrario secondo Noto La Diega vengono spossessati dei propri dati da questo processo di digitalizzazione e datificazione della vita privata.
Inoltre, il processo di atomizzazione delle famiglie edei nuclei sociali casalinghi si va intensificando. Questo processo non é nuovo, ma é iniziato giá decenni fa con l’erosione di quegli spazi e momenti di vita condivisa all’interno della casa (i pasti, l’intrattenimento), dovuto alla diffusione di tecnologie quali il microonde o la presenza di piú di un televisore per casa. Kumar ha indicato questa atomizzazione con il termine “democrazia del microonde”; oggi, questo processo viene esasperato nella smart home, dove ogni abitante ha il proprio profilo personale e la propria app per gestire la smart TV, lo smart speaker, la lampada smart, etc. Siamo, quindi, alla “democrazia del microonde smart”.
Il ruolo che la casa ha per i propri abitanti cambia con la smart home in maniera paradigmatica. La casa non é piú prevedibile e non risponde necessariamente alle aspettative di riservatezza degli abitanti, operando anche al di fuori del controllo degli stessi. Il rapporto emotivo ed emozionale che unisce l’abitante alla casa viene eroso dalla smart home. Questo cambiamento puó indurre un senso di alienazione dalla casa stessa, specialmente quando gli apparecchi smart malfunzionano e gli abitanti scoprono che, per esempio, lo smart speaker ha registrato una conversazione privata inviandola poi ai propri contatti, o ancora quando gli abitanti si rendono conto della reale portata della raccolta dati e della profilazione operata dai dispositivi smart, o infine quando improvvisamente dalla smart TV o dallo smart speaker eccheggiano pubblicitá invasive e non richieste, una nuova forma di spam (ci tengo a specificare che questi sono tutti esempi reali, riportati anche dai giornali).
Considerazioni simili valgono anche, mutatis mutandis, con riguardo ai software di riconoscimento emotivo che operano a volte in luoghi inaspettati, quali stazioni dei treni, scuole, colloqui di lavoro, autoveicoli. Questa tensione tra i ruoli e le aspettative che esistono in luoghi familiari (privati come la casa, ma non solo), e la digitalizzazione delle azioni e comportamenti che vi si compiono, del vissuto, puó dare adito al cosiddetto chilling effect, ossia puó indurre gli individui a cambiare i propri comportamenti, a non esercitare i propri diritti, per paura di essere osservati e di subire, poi, conseguenze indesiderate o punizioni. Queste tecnologie introducono uno sguardo reificatore nel quotidiano privato, e rendono piú penetrante lo sguardo reificatore che ci si aspetterebbe in pubblico: si pensi, per esempio, agli abitanti della smart home che decidono di non discutere di determinati argomenti nel proprio salotto, perché vi é installato uno smart speaker o una smart TV, o ancora a dei cittadini che, consapevoli della presenza di software per l’identificazione biometrica e di riconoscimento delle emozioni, decidono di non andare a manifestare in una pubblica piazza per paura delle ripercussioni. Questi rischi della sorveglianza digitale vanno poi considerati anche alla luce delle minoranze e di quei segmenti della popolazione che sono piú a rischio di discriminazione, abusi e danni ai propri interessi: le categorie vulnerabili sono ancora piú esposte, e questo tipo di tecnologie puó trasformarsi per loro in una trappola kafkiana.
C’é, infine, una considerazione da fare per quanto riguarda l’aspetto dell’interfaccia persona-macchina. Online, siti web, piattaforme, software e app sono progettati per spingere gli utenti a compiere determinate azioni, a beneficio dei fornitori di beni e servizi. Basti pensare a quanto é difficile acquistare un biglietto aereo schivando costi aggiuntivi per assicurazioni, bagagli, sedili spaziosi e quant’altro. O ancora alle finestre pop-up che richiedono il consenso al trattamento dei dati, il cui design spinge i navigatori ad accettare i cookie, abilitando una raccolta dati piú vasta e invasiva. Questi trucchi del design delle interfacce si chiamano comunemente dark patterns o deceptive design. Sono usati per eludere l’applicazione delle leggi in materia di protezione del consumatore e dei dati personali, per indurre un senso di dipendenza che spinge gli utenti a restare sui social media piú a lungo e per fare acquistare quanti piú beni e servizi possibili. Il riconoscimento emozionale portato avanti dalle societá private per motivi di marketing ha un ruolo complementare a quello dei dark patterns: aiuta a individuare stati di vulnerabilitá (tristezza, depressione, rabbia, eccitazione, gioia) e a raffinare i profili degli utenti, per poi offrire loro beni e servizi con una interfaccia manipolatrice. I dark patterns sono presenti anche nell’interfaccia degli apparati smart e IoT all’interno della smart home, e spingono gli abitanti a interagire piú a lungo con gli assistent vocali, ad acquistare prodotti sponsorizzati nei negozi online associati allo smart speaker, a noleggiare film dai servizi di streaming con cui i produttori della smart TV hanno un accordo commerciale, e cosí via. La casa diviene, quindi, reattiva e proattiva, manipolando la capacitá decisionale degli abitanti. Non abbiamo ancora dati sugli effetti a lungo termine di questo tipo di manipolazione, ma il timore é che, a lungo andare, la capacitá decisionale si indebolica, come un muscolo che si atrofizza quando non é allenato.
Pratiche vietate e ad alto rischio, potrebbe parlarci di casi ed eccezioni?
Il regolamento sull’IA vieta determinati usi dell’intelligenza artificiale. Questi includono:
- Sistemi di intelligenza artificiale che manipolano le decisioni delle persone tramite tecniche subliminali causando (o potendo causare) danni gravi, e sistemi che sfruttano le vulnerabilità di gruppi e individui (ad esempio per via dell’etá, di disabilitá, o di condizioni socioeconomiche), anche in questo caso causando o potendo causare danni gravi.
- Sistemi che valutano o classificano le persone in base al loro comportamento sociale o tratti personali (cosiddetto social scoring) se hanno come risultato un detrimento o trattamento sfavorevole in contesti diversi da quelli in cui i dati degli individui interessati erano stati raccolti, o un detrimento o trattamento sfavorevole che sia sproporzionato rispetto alla gravitá del comportamento tenuto dagli individui.
- Sistemi che prevedono la percentuale di rischio che una persona commetta un crimine, se la valutazione é compiuta in base al profilo o alle caratteristiche intrinseche degli individui interessati. Gli strumenti di valutazione del rischio possono essere usati come mezzi di supporto per la valutazione del coinvolgimento di una persona in un atto criminale, se si basano su fatti verificabili e circostanze oggettive.
- Sistemi di intelligenza artificiale che raccolgono immagini facciali da Internet o filmati CCTV.
- Sistemi di riconoscimento delle emozioni usati sul posto di lavoro o nelle istituzioni educative, a meno che non abbiano un uso medico.
- Sistemi che classificano le persone in base ai loro dati biometrici per dedurre dati concernenti l’appartenenza etnica, opinioni politiche, appartenenza a sindacati, religione, orientamenti sessuali. Il divieto non si applica ai sistemi che etichettano o filtrano dataset acquisiti legalmente, nel settore della sicurezza nazionale.
- L’uso del riconoscimento facciale in tempo reale in spazi pubblici da parte delle autoritá preposte alla sicurezza, a meno che non venga usato per trovare vittime di rapimenti, sfruttamento della prostituzione e traffico di esseri umani, in presenza di un rischio specifico, concreto e imminente alla vita di essri umani o in caso di una minaccia prevedibile di attentati terroristici, per la localizzazione e l’apprensione di sospetti criminali (per crimini puniti con una pena di almeno quattro anni di reclusione).
L’elenco é lungo, ma da quanto sopra si evince che per ogni divieto sono previste alcune eccezioni per scopi di contrasto alla criminlitá (Nota: sottolineate nel testo), come la ricerca di persone scomparse o la prevenzione di attacchi terroristici, o sono previste soglie minime di gravitá, come nel caso delle IA manipolatrici. Queste eccezioni vanno considerate da un punto di vista sistemico: le eccezioni per il riconoscimento facciale per ragioni di lotta al crimine e anche molti altri usi (ad esempio IA in campo militare o di esplorazione spaziale) rientrano tra quelle applicazioni che giacciono al di fuori dei poteri dell’Unione, o nelle quali gli Stati Membri godono di un ampio margine di azione. Allo stesso tempo, per quanto riguarda la lotta al crimine e al terrorismo, da anni ormai la CEDU e la CGUE portano avanti un braccio di ferro con gli Stati, per limitare le ingerenze con il diritto alla riservatezza e le altre libertá e diritti fondamentali e mitigare il rischio di abusi. Principi come quello di proporzionalitá assumono una importanza fondamentale quindi nel valutare l’uso di questi strumenti al di lá del Regolamento sull’IA: tuttavia l’interpretazione di questi principi oscilla tra approcci piú permissivi e proceduralizzazione, ed approcci piú restrittivi, per via del bilanciamento degli interessi collettivi con quelli individuali. Queste circostanze contribuiscono a creare una zona grigia, nella quale la protezione dei diritti fondamentali é incerta.
In parallelo con le considerazioni sistemiche, rimane il fatto che molte delle eccezioni ai divieti di cui sopra ricadranno nei sistemi di intelligenza articiale ad alto rischio, secondo la catalogazione del Regolamento, e saranno soggette a una serie di obblighi per mitigarne i relativi rischi. Oppure ricadranno addirittura nei sistemi non ad alto rischio, e saranno dunque regolamentati in maniera meno stringente, tramite linee guida settoriali elaborate dalle societá stesse. Questo perché, di base, il Regolamento ha lo scopo di permettere l’immissione nel Mercato Interno di prodotti – nel caso specifico sistemi di IA – sicuri. Quella della protezione dei diritti fondamentali diventa una considerazione addizionale, addirittura funzionale alla diffusione sul mercato di sistemi di IA, il che é giá una stortura concettuale non da poco. Uno degli obblighi per i sistemi ad alto rischio prevede la valutazione di impatto sui diritti fondamentali. Questa é stata una novitá per cui si é discusso e combattuto molto durante i lavori di preparazione del Regolamento. La valutazione d’impatto é uno strumento importante e utilissimo, e contribuisce a responsabilizzare chi usa sistemi di IA ad alto rischio. Crea un momento di frizione, di blocco, durante il quale gli utenti professionali di certi sistemi di IA devono fermarsi e riflettere sulle conseguenze che tali sistemi possono avere sui diritti fondamentali. Valutazioni di impatto simili sono giá previste in altre normative UE, quali la valutazione d’impatto sulla protezione dati del Regolamente per la protezione dei dati personali, e la valutazione dei rischi sistemici imposta dal Digital Services Act (DSA) alle piattaforme online. Una pecca che ha la valutazione d’impatto nel Regolamento IA é che si applica solamente se chi utilizza l’IA é un ente pubblico, o enti privati fornitori di servizi pubblici (o se il sistema di IA é usato nell’ambito dell’accesso ai servizi essenziali). Sarebbe auspicabile che la valutazione di impatto sui diritti fondamentali venisse estesa a tutti i sistemi di IA ad alto rischio, come standard minimo. Basti pensare a come i social network e le piattaforme online ci hanno insegnato che gli algoritmi usati per organizzare e trovare le informazioni online hanno un impatto importante sui processi di informazione, conoscenza e addirittura sull’equilibrio elettorale e democratico. Eppure, l’obbligo di valutazione di impatto sui diritti fondamentali non si applicherebbe a tali enti privati: la protezione dei diritti fondamentali in quel caso resterebbe basata sulla valutazione di rischi sistemici prevista dal summenzionato DSA. Ma valutare rischi sistemici e valutare l’impatto sui diritti fondamentali non sono la stessa cosa.
Adottando nuovamente una lente sistemica, il Regolamento sull’IA di base adotta un mix di strategie di regolamentazione. Alcune norme propongono delle proibizioni, altre sono esempi di meta-regolamentazione, secondo la quale il legislatore Europeo stabilisce una serie di principi e di obblighi base, e i vari attori privati (produttori, importatori, sviluppatori e utenti professionali) troveranno poi i metodi migliori per adempiere a tali obblighi. La struttura lungo la quale questo mix di strategie di regolamentazione si sviluppa é poi quella del cosiddetto risk-based approach. Ora, questa scelta del legislatore Europeo non é di per sé problematica, e garantisce flessibilitá a fronte di una tecnologia che cambia rapidamente, nonché la possibilitá di regolamentare trasversamente settori industriali diversi in un’unica legge. I problemi sorgono quando i principi e gli obblighi non sono abbastanza chiari (si pensi all’uso del termine ‘teniche di manipolazione subliminali’ dellárticolo 5 del Regolamente IA) o i rischi non sono stati identificati in maniera adeguata, offrendo la possibilitá per produttori e altri attori di trovare escamotage per eludere la normativa. L’unica soluzione, da questo punto di vista, verrá con il tempo, con la creazione di linee guida per l’interpretazione e l’applicazione del Regolamento da parte delle autoritá preposte e delle Corti, sia nazionali che europee. Per garantire un sistema omogeneo, coerente ed efficace, e non un colapasta legislativo, sará piú importante che mai che il dialogo tra il legislatore Europeo e l’industria non calpesti le istanze dei legislatori nazionali, delle Corti, e soprattuto dei rappresentanti dei cittadini, specialmente delle categorie piú a rischio. Trasparenza e legittimitá devono essere al centro dell’applicazione del Regolamento, specialmente per quanto riguarda le eccezioni ai divieti, che dovranno essere interpretate in maniera restrittiva, assicurandosi che i divieti coprano quanto piú possibile quei sistemi di intelligenza artificale che minano i fondamentali dello stato di diritto.
In merito al ruolo della giurisprudenza internazionale, ha affermato che la CEDU e la CGUE non proteggono adeguatamente contro le nuove forme di sorveglianza. Crede che sia possibile un’evoluzione della giurisprudenza in grado di affrontare efficacemente queste sfide? E più in generale, quali sono le misure legali più urgenti per evitare che queste tecnologie compromettano i diritti fondamentali, come la privacy e l’autonomia individuale?
Entrambe le Corti hanno sviluppato, anche a seguito delle rivelazioni di Snowden e delle cause giudiziarie che ne sono scaturite, una serie di princìpi e linee guida per assicurarsi che le operazioni di sorveglianza, sia individuale che di massa, portate avanti dagli Stati rimangano nei limiti della legalità e del principio di diritto. La CEDU, per esempio, ha elaborato una lista di otto elementi volti a fare sì che le operazioni di sorveglianza non si trasformino in abusi dei poteri discrezionali di polizia e servizi segreti. Queste linee guida vengono applicate quando la Corte è chiamata a decidere se una norma o iniziativa di uno stato rispetta i tre requisiti che giustificano una ingerenza con il diritto alla riservatezza: che la norma o intervento statale sia conforme alla legge, che sia proporzionale e necessaria in uno stato democratico, e che miri a proteggere uno degli obiettivi riconosciuti (tra cui rientrano la sicurezza nazionale e l’ordine pubblico). Gli Stati, però, secondo la CEDU godono di un margine discrezionale ampio nel valutare e mettere in atto i tre requisiti, proprio in virtù della sicurezza nazionale.
La CGUE, dal canto suo, ha mantenuto inizialmente un approccio più severo alla sorveglianza statale, ed in particolare alla conservazione obbligatoria ed in massa di dati da parte dei fornitori di servizi di telecomunicazioni. Tale approccio, però, si è andato gradualmente ad ammorbidire, in particolare con l’introduzione della conservazione estemporanea per minacce urgenti alla sicurezza nazionale. Questi cambiamenti di rotta offrono la possibilità agli Stati Membri di aggirare le limitazioni esistenti, mettendo in atto forme molto invasive di sorveglianza. Questo è stato, per esempio, il caso della Francia, che ha instaurato per decreto uno status di perenne allarme per il rischio terrorismo, di fatto permettendo la ritenzione costante dei dati dei cittadini.
Questa situazione è il risultato di oltre un decennio di giurisprudenza della CEDU e della CGEU in cui le due Corti hanno accettato senza obiezioni l’assunto che la sorveglianza digitale fosse necessaria per combattere terrorismo e criminalità organizzata. Questo assunto ha portato le Corti a trovare un compromesso tra diritto alla riservatezza e sorveglianza, creando procedure ed elenchi da spuntare: questa proceduralizzazione ha indebolito il diritto alla riservatezza, creando un braccio di ferro tra Stati e Corti e un graduale gioco al ribasso. Alla luce dei cambiamenti portati dalle smart home e dall’IA è necessario che entrambe le Corti mettano in discussione alcune delle tendenze adottate fino ad ora. In primis, bisogna valutare attentamente la compatibilità della sorveglianza digitale di massa con il principio di diritto, specialmente a seguito della datificazione della sfera domestica operata dalla smart home, e delle interferenze con gli stati emotivi che derivano dal riconoscimento delle emozioni. In secondo luogo, è importante bilanciare il margine di discrezionalità degli Stati: mentre la giurisprudenza riconosce un margine ampio in caso di difesa della sicurezza nazionale, la stessa CEDU afferma che il margine è ristretto quando un intervento statale mina il cuore, l’essenza del diritto alla riservatezza. Questa interpretazione è la più idonea a salvaguardare la riservatezza degli abitanti delle smart home, e di chi viene sottoposto a riconoscimento delle emozioni. In linea con queta interpretazione, l’approccio di entrambe le Corti dovrebe essere più restrittivo e meno procedurale, per garantire una protezione più effettiva del diritto alla riservatezza a fronte della diffusione di queste nuove tecnologie di sorveglianza.
Il riconoscimento delle emozioni tramite IA, poi, merita una precisazione a parte. Questa tecnologia può facilmente trasformarsi in uno strumento per la sorveglianza la cui invasività è evidente. Proprio come altre frontiere tecnologiche (si pensi alla interfaccia cervello-computer), il riconoscimento emozionale va a interferire con la sfera più intima e personale degli individui, quello che provano. L’interferenza è tale che va a minare l’essenza stessa del diritto alla riservatezza. Allo stesso tempo, il riconoscimento delle emozioni può essere usato per analizzare manifestazioni e proteste in lughi pubblici, o per vigilare sugli studenti in classe (tutte applicazioni in corso di sviluppo e sperimentazione), interferendo anche con altri diritti, come quello di associazione e la libertà di espressione. A tutto ciò vanno aggiunte le considerazioni riguardanti le premesse del riconoscimento delle emozioni stesso: il software si basa sulla teoria delle emozioni universali, comuni a tutte le culture, sviluppata dallo psicologo americano Ekman. Si basa inoltre sull’idea che le emozioni siano direttamente connesse ad una forma di manifestazione visibile (per esempio espressione facciale, sudorazione, etc.) e infine sull’esistenza di una soglia ‘normale’di manifestazione degli stati emotivi. Tutte queste premesse sono aspramente criticate da molti esperti di psicologia e sociologia, senza contare che alcune ricerche hanno già evidenziato la presenza di risultati discriminatori per persone nere e nel caso di persone con neurodivergenze. Viste queste premesse, risulta sorprendente che il Regolamento sull’Intelligenza Artificiale abbia proibito solo due applicazioni (luoghi di lavoro e educazione), conseguentemente facendo rientrare molte altre applicazioni di riconoscimento delle emozioni nella categoria delle IA ad alto rischio, pur prendendo atto della mancanza di consenso sulle basi scientifiche della pratica. Così facendo il Regolamento ha implicitamente riconosciuto valore al riconoscimento delle emozioni, addirittura menzionando possibili utilizzi medici non meglio specificati. Visti gli interessi in gioco, un approccio più cauto ed in linea con il principio precauzionale sarebbe stato quello di proibire lo sviluppo e l’applicazione di sistemi di riconoscimento delle emozioni tout court, come fatto per i settori dell’educazione e della gestione del personale, o quanto meno di estendere il divieto a molte altre applicazioni, per prevenire il deterioramento degli equilibri tra cittadini e stato e il rischio di svuotare di significato il diritto alla riservatezza.