skip to Main Content

Intervista al Prof. Claudio Sarra. Persuasione algoritmica: profili metodologici e deontologici

 

Claudio Sarra è professore associato nell’Università di Padova dove insegna “Etica e Informatica giuridica”. È Chief Editor della rivista Journal of Ethics and Legal Technologies edita da Padova University Press, vice Direttore del Master di II secondo livello in Metaverso e Informatica giuridica, nonché membro del comitato etico del centro interdipartimentale di ricerca Human Inspired Technology (HIT) e del comitato scientifico di V-SIX, centro per la connettività e servizi al territorio dell’Università di Padova. Tra le sue recenti pubblicazioni si ricordano le monografie Il mondo-dato. Saggi su datificazione e diritto (CLEUP, II ed. 2022), Dignità umana nell’era dell’intelligenza artificiale e della datificazione (KRONT, 2025) e Diritto alla salute, protezione dei dati personali e intelligenza artificiale, (con Anna Zilio e Giulia De Bona, FrancoAngeli, 2025 – open acess).

Il Prof. Claudio Sarra

 

 

Lei descrive il “ciclo della datificazione” come motore dell’attuale società tecnologica. Quali sono, a Suo avviso, i punti più critici di questo ciclo quando l’output dei sistemi automatizzati viene utilizzato per guidare decisioni pubbliche o private? 

Occorre innanzi tutto comprendere il senso dell’elevazione del “ciclo della datificazione” – che di per sé non costituisce alcuna novità – a schema interpretativo dell’attuale sviluppo delle società tecnologiche. Quest’ultime, sulla base della riconfigurazione culturale dell’idea di “progresso” nella direzione di una sempre maggiore presenza attiva della macchina digitale, si trovano nella condizione di fornire ad essa le condizioni per il suo utilizzo ottimale. Si tratta di condizioni molto complesse che vanno dalla disponibilità – oggi in particolare – di grandi quantità di energia, alla costruzione di potenti e sempre aggiornate infrastrutture fino alla riformulazione dei programmi educativi nel senso di una familiarità quotidiana con la presenza di tale artefatto. Ma di tutte queste – e le molte altre che si potrebbero ricordare – due sembrano essere quelle che costituiscono il “metabolismo di base” della trasformazione: l’incremento della potenza di calcolo delle macchine e la pronta disponibilità di dati in adeguata quantità e qualità in tutti gli ambiti dell’esperienza, perfino quella più intima e personale (i social procedono a datificare largamente questi aspetti). Gli ultimi trent’anni sono stati caratterizzati proprio dalla progressiva e sistematica organizzazione della società in questa direzione ed oggi siamo in grado di vederne i frutti più maturi: per esempio, la “sorprendente” macchina che può parlare con noi su ogni argomento, con (relativa) competenza e con risposte adeguate al contesto. Può parlare “di tutto” esattamente perché abbiamo datificato “tutto” ed essa è potente abbastanza per trarre dall’immane mole di dati (di discorsi datificati) un’adeguata rappresentazione statistica delle strutture linguistiche, riferimenti comuni, implicazioni, perfino modi di dire e agisce “come se” riuscisse a leggere le intenzioni del parlante ed adeguarsi.

Il ciclo della datificazione, e cioè lo schema ricorsivo “eventi-dati-conoscenza-decisioni-azioni” – rappresenta così lo schema astratto di questa trasformazione e ha un valore sia descrittivo ma anche utilmente interpretativo di fenomeni complessi. Esso può essere, infatti, utilmente utilizzato per ricondurre sotto ciascuno dei suoi elementi le varie problematiche etiche e giuridiche che si propongono continuamente.

Rinviando ai miei lavori per una disamina completa, qui farei solo due esempi.

Il primo: “evento” è tutto ciò che è datificabile, direttamente (es. una proprietà misurabile) o indirettamente (tramite proxy eletti convenzionalmente a rappresentare le qualità di interesse). Il passaggio dall’evento ai “dati” evidenzia tutte le questioni, tecniche, giuridiche, sociali e, in genere, culturali (sì, anche quelle scientifico-tecniche sono “culturali”…), che sono in gioco in questo delicatissimo momento. Per esempio, datifichiamo con gli strumenti che abbiamo e che sono tecnicamente variabili nel tempo; datifichiamo nel modo che possiamo e in base a scelte, che sono basate su ragioni tecniche, sociali, etiche e che conducono a datificare in certi modi piuttosto che altri (es. riempire un bosco di sensori potrebbe essere socialmente non accettato in un dato momento storico per ragioni ambientalistiche). Insomma, questo passaggio ci evidenzia che i “dati” non sono mai espressioni neutrali e spontanee della realtà ma sempre l’effetto di azioni tecniche, culturalmente strutturate e di scelte che hanno alla base ragione di diverso tipo e gravità.

L’altro esempio è relativo al momento del ciclo definito “conoscenza”. Qui si tratta di collocare tutte le operazioni che conducono dai dati alle strutture di senso destinate ad orientare o determinare tout court le decisioni e le azioni conseguenti siano esse umane, robotiche o miste. Qui, collochiamo le complesse operazioni che compie l’artefatto per produrre i suoi output, in altri termini questo è il punto in cui presentiamo tutte le questioni connesse alla natura degli algoritmi, compresi limiti e le potenzialità delle operazioni matematiche sottostanti.

Ad esempio, qui si colloca l’importantissima distinzione tra “causalità” e “correlazione” con tutte le questioni connesse. Ma qui è anche dove troviamo le operazioni con cui “addestriamo”, grazie ai dati, l’intelligenza artificiale, e discutiamo delle potenzialità del suo “apprendimento”.

Naturalmente, potremmo continuare ed approfondire ma venendo, ora, più specificamente alla Sua domanda, direi che sul piano della formazione dell’operatore giuridico, sia destinato ad operare nell’ambito pubblico o privato, una più che adeguata coscienza e preparazione in merito a tutti i momenti e le questioni rappresentate nel “ciclo” non è più preteribile. In questo senso, nessuno di quei momenti può considerarsi “più critico” di altri.

Come è chiaro anche solo da questa brevissima presentazione, ogni elemento del “ciclo” presenta un intreccio complesso di questioni sociali, etiche, giuridiche ed epistemologiche: da questo punto di vista, si spiega perché la disciplina della Informatica giuridica sia ricompresa nel grande ambito della Filosofia del diritto. Ma per l’importanza che le questioni di cui parliamo hanno oggigiorno, essa è comunque ancora oggi troppo poco presente nei corsi universitari, i quali spesso consentono di scegliere tale materia oppure no nella formazione del curriculum di studi, come se nella società odierna capire le complessità accennate sia opzionale!

Sul piano, invece, della operatività istituzionale, professionale o imprenditoriale, salva sempre la necessità di un’adeguata formazione di base, ciascuno dei momenti del “ciclo” può assumere una rilevanza più critica in ragione della fase del processo che conduce alla decisione nella quale ci si trovi ad operare. Qui, l’expertise specifica è certamente essenziale ma occorre comprendere che si è comunque un elemento di una lunga catena di operazioni intimamente legate e che non è facile – sul piano etico forse nemmeno possibile – tagliare nettamente i profili di responsabilità circa l’esito finale. Ad esempio, conoscere i database su cui si lavora, sapere chi li ha formati, con quali criteri e se l’organizzazione che li mette a disposizione abbia connotazioni ideologiche particolari di cui occorra tenere conto e che potrebbero essere rilevanti sulla qualità dei dati (per es. se mi serve un database etichettato per addestrare un’IA che sappia riconoscere istanze di hate speech), è qualcosa che dovrebbe far parte della routine di base di chi lavora con i dati.

Infine, sul piano dell’impatto sociale, direi che è il momento della decisione che si traduce in azione rivolta all’esterno quello sicuramente più cruciale ma, di nuovo, limitare l’attenzione a questo e magari imputare responsabilità esclusive a chi si trova nella posizione di decisore senza il controllo delle fasi precedenti, può essere pratico nel breve periodo ma divenire incomprensibile – se non come ricerca di un “capro espiatorio” – nel lungo. Non a caso, in etica si parla sempre di più di “responsabilità distribuita”. Ovvio che questo discorso sia molto difficilmente “gestibile” sul piano della ricerca di certezza giuridica.

 

La ricerca empirica sulla persuasione mediata da IA mostra che gli utenti reagiscono all’artefatto come se fosse un interlocutore umano, pur sapendo che non ha intenzioni. Come dovrebbe regolarsi, secondo Lei, il diritto di fronte a questa “intenzionalità apparente”, soprattutto in relazione alla responsabilità degli esiti persuasivi? 

L’antropomorfizzazione dell’artefatto corrisponde alla “strategia” fondamentale di appropriazione del mondo in quanto “altro da sé” che l’essere umano ha imparato a porre in essere fin da quando si è reso cosciente di sé in quanto, appunto, umano. Tale “strategia” è profondamente razionale: si tratta di proiettare fuori di sé ciò che si sa di sé per avere qualcosa di sensato con cui iniziare a conoscere e gestire un elemento, una potenza naturale che si presenta potenzialmente minacciosa in quanto inizialmente opposta e diversa. Così, si umanizzano nel discorso mitico le potenze naturali attraverso l’estensione di caratteristiche umane – come intenzioni o anche tratti fisici – pur mantenendole nell’alterità attraverso, ad esempio, l’accettazione delle inconsistenze del racconto con cui le si rappresentano (i “capricci” o le incostanze delle divinità di certi racconti mitici), e riorganizzando l’esperienza di conseguenza.

Analogamente, l’umanizzazione dell’artefatto – che, sebbene abbia la caratteristica essenziale di non esistere in natura ma di essere un prodotto umano, si presenta come “altro” proprio per la sua artificialità – è qualcosa che è stato notato fin dall’inizio della rivoluzione informatica. Suggerisco, a questo proposito, di rileggere il testo Computer Power and Human Reason (1976) Joseph Weizenbaum, autore di ELIZA (1966), un programma che offriva la possibilità di un dialogo modellato sul tipo di un certo approccio psicoterapeutico. L’Autore è sbalordito nel vedere come le persone chiamate a testare il programma e ad interagire con esso arrivavano fino al punto di volere rimanere soli, in intimità, quando dialogavano con esso.

Più in generale, il rapporto con tutti i media sembra essere impostato in questo senso (cfr. B. Reeves, C. Nass, The Media Equation. How People Treat Computers, and New Media Like Real People and Places, 1996).

D’altro canto, l’umano procede in questo senso anche nei confronti dello stesso diritto: usa, infatti, facilmente categorie antropomorfe per indicare istituzioni, processi o pure astrazioni (pensiamo al “Legislatore” che “dispone”, “vuole” “comanda” ecc.).

In questo senso, il diritto “sta dentro” la strategia di umanizzazione del mondo e non fuori di essa. Questo punto è rilevante quando si discute del c.d. “punto di vista antropocentrico” come categoria, infatti, c’è un senso della parola che non è semplicemente prescindibile: anche quando l’umano si dis-valora e si colloca assiologicamente sul piano di altri enti (viventi o no), è sempre il “suo” punto di vista sul mondo che agisce e che, in questo senso, fa “violenza” sul mondo imponendosi.

Va specificato, peraltro, che il fatto di umanizzare l’artefatto non necessariamente predetermina il risultato dell’interazione con esso, i fattori in gioco, qui sono molto complessi e, semmai, occorre far sì che l’interazione sia consapevole e non pregiudicata a favore della macchina.

Il diritto già conosce questa eventualità: in effetti, l’art. 14, §4, lett. b), del c.d. AI Act, prevede che nel predisporre il sistema “ad alto rischio” alla necessaria sorveglianza umana questo sia fornito al deployer in modo tale che le persone fisiche alle quali essa è affidata abbiano la possibilità, tra le altre cose, di “restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull’output prodotto da un sistema di IA ad alto rischio («distorsione dell’automazione»), in particolare in relazione ai sistemi di IA ad alto rischio utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche”.

Questo però non riguarda l’effetto dell’output nel soggetto destinatario ma l’insieme delle garanzie tecniche che devono essere predisposte per l’utilizzo dei sistemi ad alto rischio.

L’impatto e la “persuasività” dell’artefatto non sono limitati da queste previsioni. Né è detto che lo debbano essere: il punto qui, non è predeterminare il risultato ma rimanere consapevoli delle ragioni per le quali si prendono le decisioni che non possono essere ridotte a “me l’ha detto ChatGPT”. Da questo punto di vista, spiace vedere che la recentissima proposta di modifica del regolamento da parte della Commissione (il c.d. Digital omnibus) intenda eliminare gli obblighi in capo a fornitori e deployer di “alfabetizzazione in materia di IA” (attuale art. 4), per sostituirli con un generico “incoraggiamento” da parte della Commissione e degli Stati membri nei confronti di tali soggetti a provvedere (art. 1, n. 4), prop. Comm. 2025/0359). Un tale alleggerimento appare al momento prematuro.

Infine, quanto alla responsabilità per gli effetti persuasivi dell’IA sui comportamenti dei consociati, non mi pare che al momento vi siano le condizioni per immaginare regimi giuridici diversi e deresponsabilizzanti dei soggetti che forniscono i sistemi quanto alle informazioni e la gestione dei rischi e di quelli che se ne servono quanto all’uso inadeguato: i recenti e, purtroppo, sempre più frequenti utilizzi erronei dell’IA da parte di avvocati e giudici per redigere gli atti giudiziari non hanno spinto nessuno a dubitare della responsabilità di chi, ancora oggi, e nonostante tutti i convegni e gli articoli sul punto, non controlla adeguatamente il testo prodotto dall’IA e si lascia “persuadere” dalle “allucinazioni” del sistema.

 

 

Molte analisi distinguono tra bias del sistema (a monte) e discriminazione generata dagli effetti della decisione (a valle). Come può il diritto intervenire efficacemente su questa duplice dimensione, considerando anche le diverse fasi della pipeline tecnica (pre-, in- e post-processing)?

Anche in questo caso il diritto non è “categorialmente sprovveduto” di fronte a queste distinzioni (che, peraltro, non sono sempre tenute presenti nemmeno dagli stessi tecnici, i quali spesso riassumono sotto il problema dei bias entrambi gli aspetti). Il diritto antidiscriminatorio conosce, infatti, una distinzione per certi versi sovrapponibile che è quella tra “discriminazione diretta” – dove una decisione differenziante è presa sulla base di un criterio che, invece, giuridicamente, non dovrebbe fare differenza – e quella “indiretta” – dove i criteri utilizzati appaiono neutrali ma, di fatto, vengono ad impattare in modo iniquo sulla base sociale che presenta una distribuzione non uniforme di certe caratteristiche (ad es. una selezione in base ad una statura minima, quando non vi è ragione sostanziale, di fatto offre alle persone di sesso femminile meno opportunità semplicemente perché, in generale, esse sono meno alte dei maschi).

Tuttavia, è dubbio che il diritto debba intervenire ulteriormente con strumenti più specifici e collegati alle procedure tecniche che vengono utilizzate per affrontare il problema e ciò per vari ordini di ragioni.

La prima è che gli approcci tecnici possono variare nel tempo e, posto che il fine di limitare bias e discriminazioni, è giuridicamente buono, vincolare a priori procedure di questo tipo non giova allo sviluppo di nuove e più efficaci.

In secondo luogo, e molto più importante, non esiste al momento una generale approvazione per uno o l’altro di questi approcci (pre-processing, in-processing, post-processing) perché ciascuno offre possibilità e problematiche diverse. In particolare, la decisione su quale sia la strategia più opportuna tiene conto delle caratteristiche del sistema, dell’uso cui è destinato, della possibilità o opportunità che sia riutilizzato in contesti diversi e, in generale, del rapporto tra performatività del sistema e sua inclusività. Per fare un esempio di quest’ultimo punto, un sistema che conceda credito in maniera totalmente inclusiva potrebbe essere inefficiente nel prevedere gli esiti di quei prestiti e condurre così ad una massa rovinosa di insoluti.

Quest’ultima osservazione ci apre ad una terza ragione, forse la più importante e spesso sottovalutata dai giuristi quando si discute di IA e discriminazione e cioè che, date differenze nelle basi di rischio tra gruppi sociali di riferimento, non è matematicamente possibile soddisfare simultaneamente i diversi criteri di equità comunemente invocati nei modelli predittivi. Si tratta del c.d. problema della “impossibility of fairness” che evidenzia la natura etica e politica del problema.

Ora, vincolare giuridicamente le procedure di limitazione dei bias rischia di travisare la complessità di questo problema che, probabilmente, è meglio affrontato attraverso un’analisi caso per caso e con strumenti il più possibile flessibili.

Il diritto ha un compito di supervisione e tutela dei diritti che sono implicati in queste decisioni: anche qui, per fare solo un esempio, l’AI Act consente l’utilizzo di dati personali meritevoli di particolare protezione (ex art 9 GDPR) per la ricerca e la mitigazione dei bias (attuale art. 10, § 5, limitato ai sistemi ad alto rischio ma che il già citato Digital omnibus intenderebbe estendere a tutti i sistemi, spostando l’articolo relativo nella parte delle disposizioni generali). Il diritto deve presidiare affinché le condizioni rigorose previste siano effettivamente rispettare per evitare che la “caccia alle discriminazioni” travolga il delicatissimo sistema di equilibrio tra i diritti fondamentali che sono in gioco.

 

Le evidenze mostrano che la persuasività dell’IA cala quando l’utente è consapevole della natura artificiale della fonte. Ritiene che l’AI labeling debba diventare un obbligo normativo generalizzato? E quali potrebbero esserne i rischi o le conseguenze inattese?

Anche in questo caso, come si sa, l’AI Act prevede varie disposizioni sul punto: ad esempio, tra gli obblighi ispirati ai principi di trasparenza, che i fornitori di sistemi destinati ad interagire con umani garantiscano che siano progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema (art. 50), come pure che siano marcati elettronicamente e rilevabili i contenuti audio e video generati dall’IA (§ 2), che i deployer informino che i contenuti prodotti sono stati generati o manipolati artificialmente ed altre cose.

Ma il punto importante è che, se è vero che, finora, pressoché tutte le ricerche empiriche hanno mostrato la rilevanza della disclosure circa l’origine artificiale del messaggio persuasivo, è anche vero che la direzione di questo effetto non è univoca. In altre parole, sapere che un contenuto è prodotto dall’IA non significa che sia predeterminato l’effetto persuasivo in un senso oppure un altro. Entrano in gioco qui fattori culturali – dunque, in principio mutevoli – e contingenti.

Quanto ai primi, sono diverse le euristiche di riferimento che possono essere attivate dall’interazione con la tecnologia a seconda che i soggetti coinvolti partano da una precomprensione favorevole oppure sfavorevole verso la tecnologia (“tecnoentusiasti” vs “tecnoscettici”). Questo elemento ha una dimensione generazionale: l’approccio alla tecnologia contemporanea non è lo stesso da parte di chi – come chi scrive – ratione aetate ha “un’immagine del mondo” senza Internet da chi, invece, è nato e cresciuto avendo ChatGpt in tasca. Dunque, i riscontri empirici non sono da considerarsi stabili su questo punto.

Quanto ai secondi, esiste una letteratura psicologica sul “conformismo sociale” che ha inteso riprendere in contesti ibridi “umano-macchina” la ricerca del c.d. “effetto Asch” (dal nome di Solomon Asch, che negli anni Cinquanta ha prodotto degli esperimenti estremamente interessanti e molto influenti sul punto). Ebbene, tale letteratura sta mostrando, tra le altre cose, che a seconda del tipo di coinvolgimento che l’umano ha con la macchina, il primo è portato più o meno facilmente a “conformarsi” all’esito della stessa. Per esempio, se si è in un contesto in cui si ha una fiducia di partenza nella buona performatività dell’artefatto, si è più inclini ad accettarne le conclusioni. Oppure, e questo può apparire più inquietante, si è visto che dopo una sessione particolarmente immersiva nei videogames i soggetti sono più inclini a conformarsi agli output della macchina.

Quindi, sebbene io sia favorevole ad un obbligo generalizzato di “AI labeling” (e sono, simmetricamente, perplesso di fronte alle limitazioni che le disposizioni sopra citate mettono agli obblighi che pure impongono) sono consapevole che questo non sarebbe che un fattore, importantissimo, certo, di rispetto reciproco ma che non è detto che conduca necessariamente ad una più responsabile relazione uomo-macchina. In fondo, nell’utilizzo quotidiano della tecnologia, agli avvisi ripetuti e costanti si presta sempre meno attenzione e in un futuro molto prossimo in cui la quantità di contenuti prodotti dall’IA sarà perfino maggiore di quella prodotta dall’umano, mi chiedo che sensibilità rispetto a questi temi avranno gli utenti.

 

Nella letteratura più recente emerge l’esigenza di definire cosa siano “contenuti accettabili” nelle interazioni persuasive uomo-macchina, tema che incrocia la libertà di espressione. Quali criteri ritiene giuridicamente sostenibili per distinguere tra persuasione legittima e influenza inaccettabile in un contesto sempre più datificato?

Innanzi tutto, occorre ricordare che un’IA generativa, in particolare un modello linguistico, non è un servizio di informazione, né un motore di ricerca. Si tratta di un generatore di testo attraverso un sofisticato motore di calcolo statistico che inferisce la porzione di testo (o, come si dice, il token) più probabile in base a quelle precedenti a loro volta tokenizzate, trasformate in vettori numerici, e ponderati mediante il c.d. “meccanismo di attenzione” che fa sì che nel valutare il peso di un singolo token sia preso in considerazione (matematicamente) l’intero contesto linguistico in cui esso si trova.

La base per le complicate trasformazioni vettoriali è costituita dall’apprendimento preordinato (pre-training) compiuto su amplissime quantità di testi con cui il modello “apprende” le strutture linguistiche di riferimento. Il tutto, poi, viene perfezionato (fine tuning) attraverso l’uso di dataset riferiti a contesti linguistici specifici e con tecniche di supervisione umana (Reinforcement Learning from Human Feedback).

La cura dei dati di addestramento, il perfezionamento supervisionato e il controllo e il filtraggio in tempo reale dei prodotti sono complicate operazioni che vengono messe in atto proprio per prevenire che il modello generi contenuti sconvenienti.

Inoltre, va ricordato che l’utente medio utilizza i modelli linguistici sulla base di condizioni di utilizzo che è tenuto a rispettare: ad esempio i termini di utilizzo di ChatGPT per l’Europa prevedono l’impegno dell’utente a non utilizzare il modello per attività illecite o in modo da violare i diritti di terzi; egli è, inoltre, responsabile del contenuto, anche per quanto riguarda la garanzia che non violi le leggi vigenti o i termini d’uso stessi.

Tutto questo è, chiaramente, già sotto l’egida del diritto ma il problema della “persuasione” è naturalmente molto più difficile. La prima ragione è che il termine è vago: esso vuole indicare in qualche modo un’azione di condizionamento sul comportamento (o sulle opinioni o sulle intenzioni) del destinatario di una comunicazione, ma, in realtà, i fattori che influiscono sulle determinazioni soggettive sono molteplici e non circoscrivibili al solo dialogo con l’IA.

Inoltre, poiché quest’ultima non ha intenzioni, né buone né malvagie, essa non può agire fraudolentemente con “dolo”. Al massimo può dirsi che può “indurre in errore” ma in un senso de-psicologizzato e comunque di ciò l’utente è avvisato proprio dai termini di utilizzo con i quali egli accetta di valutare criticamente l’output, di non utilizzarlo come fonte di verità o in sostituzione di un parere professionale, o per attività che possano impattare giuridicamente su altre persone (cfr. Condizioni d’uso nell’UE di ChatGPT, “Contenuto”).

Né mi pare che – per le ragioni dette – possa utilizzarsi, con riferimento all’IA, l’argomento che era stato sollevato in passato sulle piattaforme social e cioè che esse, in quanto mediatrici delle relazioni sociali, parteciperebbero ormai della funzione pubblica connessa alla realizzazione dei diritti fondamentali e, in particolare, proprio della libertà di espressione, sicché, sebbene si tratti di servizi privati, non potrebbero limitare la libertà di espressione oltre il lecito esercizio di essa.

Ci troviamo, dunque, già in una situazione collocata giuridicamente sulle direttrici di tutela privata – quanto ai limiti imposti dalle condizioni di utilizzo – e pubblica, nella misura in cui, utilizzando l’IA – ad esempio per comporre contenuti social – si superino i limiti propri della libertà di espressione il cui esercizio “comporta doveri e responsabilità” (art. 10, § 2, CEDU): pensiamo alle ipotesi di hate speech.

Personalmente non auspico affatto ulteriori interventi del legislatore italiano o europeo volti a fornire “cataloghi” di contenuti accettabili o forme di delazione obbligatoria da parte dei fornitori di servizi di IA per dialoghi “sconvenienti” con i modelli e ciò per molte ragioni, alcune ovvie – quali il rischio di ritrovarci in una forma nuova e magari sovranazionale si stato etico – e altre meno ovvie. Tra queste ultime vorrei sottolineare il fatto che una richiesta di controlli così asfissianti sui dialoghi con l’IA degli utenti, data la massa si utilizzo, non potrebbe che passare attraverso l’impiego di forme di controllo automatizzate e di censure, di nuovo, condotte attraverso strumenti di IA. Ora, qualcosa del genere lo si sta già sperimentando proprio con riferimento all’utilizzo di strumenti di censura preventiva di contenuti sospetti di hate speech nei social, essendo impossibile un controllo umano preventivo. Ebbene, le ricerche sul punto mostrano molto chiaramente che, in effetti, tali strumenti possono essere molto efficaci ma ad una condizione. Posto che si tratta di interpretare discorsi ordinari, il contesto di riferimento è essenziale per individuare contenuti che possono superare i limiti di accettabilità, dunque, la macchina deve essere “istruita” sul contesto stesso, che significa su dati riferiti alla condizione personale dei parlanti, del contesto sociale di riferimento in maniera più “granulare” possibile.

In altri termini, se si vuole uno strumento così efficace, questo non può che essere invasivo.

Analogamente, gli studi sulla persuasione mostrano come la personalizzazione dei contenuti incrementi la persuasività del messaggio, in particolare migliorandola anche di fronte alla “sfiducia” di partenza dovuta all’ “AI labeling”. Ma, di nuovo, personalizzazione, vuol dire una macchina che “sa molto di noi”: ancora una volta, vuol dire datificare sempre più intimamente la persona.

E così, il tentativo, di per sé comprensibile, di impedire un’IA sconvenientemente persuasiva rischia di offrire occasioni per il soffocamento di altri diritti fondamentali dei soggetti ed in particolare della loro riservatezza. Siamo, nuovamente, ad un bivio responsabilizzazione o sorveglianza di massa. Personalmente preferisco, da cittadino come da professore, puntare sempre sulla prima.

 

Back To Top