di Alberto M. Gambino Un acceso dibattito ha suscitato la mia tesi sulla potenziale…
Intervista alla Prof.ssa Alpini Arianna. La “dimensione antropocentrica” nella legge italiana sull’IA: la tutela del minore nell’ambiente digitale
Arianna Alpini è Professoressa ordinaria di Diritto privato presso il Dipartimento di Giurisprudenza dell’Università di Siena, dove insegna Diritto privato e Diritto civile.
Componente del Comitato scientifico della Rivista Tecnologie e Diritto e membro della Società Italiana degli Studiosi del Diritto Civile (S.I.S.Di.C.), dell’Associazione dei Dottorati in Diritto Privato (A.D.P.) e dell’European Law Institute (E.L.I.).
È autrice di monografie e contributi scientifici su temi quali la prelazione, la comunione, la surrogazione, i principi italo-europei dell’ordinamento giuridico, l’equità e la legalità costituzionale, la sovranità digitale europea, l’errore e la contrattazione digitale, nonché i rapporti tra intelligenza artificiale e creatività.

La Prof.ssa Arianna Alpini
La legge 132/2025 introduce una visione dichiaratamente antropocentrica nell’uso dell’IA. In che modo questo principio cambia concretamente la tutela del minore nell’ambiente digitale, rispetto al quadro europeo fondato su GDPR, DSA e AI Act?
La legge 132 del 2025 ha l’obiettivo di promuovere un utilizzo dell’intelligenza artificiale che sia “corretto, trasparente e responsabile, in una dimensione antropocentrica”. L’intento è quello di cogliere le opportunità offerte dall’IA, garantendo al contempo la vigilanza sui rischi economici, sociali e, soprattutto, sull’impatto sui diritti fondamentali.
La “visione antropocentrica” si traduce in specifici obblighi per assicurare che la responsabilità e la supervisione nell’utilizzo dei sistemi di IA rimangano saldamente ancorate all’individuo.
Il principio emergente, ovvero quello della c.d. riserva di umanità, è il filo conduttore della legge italiana icasticamente rappresentato dall’aggiunta dell’aggettivo “umano” accanto all’ingegno nell’art. 1 della legge sul diritto d’autore (art. 25), proprio a sottolineare l’autorialità umana anche nelle opere generate con l’assistenza dell’IA. Nel medesimo spirito si colloca l’art. 3 che indica nel rispetto dell’autonomia e del potere decisionale dell’individuo il limite allo sviluppo e all’applicazione dei sistemi di IA.
Tuttavia, la declinazione più sensibile e innovativa della visione antropocentrica si ritrova nell’articolo 4 che disciplina specificamente la tutela dei soggetti minorenni nell’utilizzo dei sistemi di IA. Accanto alla soglia dell’età di 14 anni, per esprimere validamente il consenso, la legge prevede l’adempimento di un obbligo informativo che renda le comunicazioni e le informazioni facilmente accessibili e comprensibili ai minori.
L’autonomia decisionale dell’essere umano, ovvero la capacità dell’individuo di autodeterminarsi senza subire effetti giuridici o significativi derivanti da processi decisionali sui quali non può esercitare controllo, è garantita attraverso la comprensibilità dei sistemi di IA che assurge a requisito di legittimità funzionale per il decisore umano stesso, necessario a esercitare un controllo effettivo.
Ciò vale a maggior ragione per il minore che è più esposto ai rischi derivanti dall’uso precoce e dunque non consapevole degli strumenti digitali. L’informativa richiesta a tutela dei minori deve assicurare la conoscibilità dei relativi rischi e il diritto di opporsi ai trattamenti autorizzati dei propri dati personali. Tale approccio eleva il requisito formale del consenso ad un requisito sostanziale di consapevolezza del rischio, rendendo la validità del consenso dipendente dalla qualità della comprensibilità dell’informativa e non soltanto dall’età anagrafica.
L’obbligo informativo “qualificato” rappresenta una novità sostanziale: perché la comprensibilità linguistica diventa un presupposto della validità stessa del consenso del minore?
Nel cd. ambiente digitale, tutti gli individui sono esposti ad un crescente rischio sistemico per il quale la vulnerabilità diventa una condizione strutturale. Per questo, il legislatore richiede che le informazioni e le comunicazioni relative al trattamento dei dati connesse all’utilizzo di sistemi di intelligenza artificiale siano rese con linguaggio tale da garantire la conoscibilità dei rischi e il diritto di opporsi ai trattamenti autorizzati dei propri dati personali (art. 4, comma 3). Di conseguenza, il minore tra i 14 e i 18 anni può esprimere autonomamente il proprio consenso per il trattamento dei dati personali connessi all’uso dell’IA, “purché le informazioni e le comunicazioni di cui al comma 3 siano facilmente accessibili e comprensibili”.
L’art. 4 rende la capacità del minore di prestare il consenso dipendente dalla qualità dell’atto informativo fornito dal terzo. Se l’informazione è oggettivamente incomprensibile, il minore, pur avendo raggiunto la soglia dei 14 anni, è legalmente posto in una condizione di incapacità cognitiva per quel particolare atto. La capacità di discernimento nel contesto digitale è non più un fatto psicologico, ma un requisito legale la sussistenza del quale è condizionata all’adempimento di un obbligo oggettivo di chiarezza comunicativa del contraente forte.
Il difetto di comprensibilità, qualora sia totale o riguardi gli elementi essenziali dell’interazione con l’IA, rende il consenso “vuoto”, poiché viene meno il presupposto cognitivo oggettivo richiesto dalla norma imperativa a tutela del minore.
L’obbligo qualificato imposto dalla disposizione si rivolge primariamente al provider del sistema IA o al titolare del trattamento, caricandolo della responsabilità di “ingegnerizzare” l’informativa in modo tale da assicurare che il destinatario, in ragione della sua età e maturità, sia oggettivamente in grado di comprenderla.
L’inadempimento del provider è valutato non in termini di semplice negligenza o violazione contrattuale, ma come l’omissione di un obbligo che la legge considera necessario per far sorgere la capacità del minore in quel contesto. L’atto di consenso privo di una base informativa comprensibile è un atto contrario a una norma imperativa di protezione, il che apre la strada alla sanzione più grave.
La mancata osservanza dello standard di comprensibilità impedisce che l’atto viziato possa essere opposto al soggetto che ne sarebbe pregiudicato.
Se la comprensibilità è il presupposto strutturale della capacità del minore in relazione a quell’atto, la sua assenza rende il consenso radicalmente nullo.
Affinché l’obbligo di comprensibilità non sia astratto, i provider devono adottare standard misurabili e oggettivi di comunicazione. Non basta fornire testi brevi ma è necessario che i contenuti informativi siano progettati in base alla maturità linguistica e cognitiva media della fascia 14-18 anni.
Questo richiede l’integrazione di principi di accessibilità cognitiva nel design dell’interfaccia e dei documenti informativi. Tra i riferimenti normativi e tecnici vi sono le Linee Guida per l’Accessibilità dei Contenuti Web, che stabiliscono principi per l’adattabilità e la leggibilità, incluse la sequenza significativa e le caratteristiche sensoriali dei contenuti. Inoltre, le linee guida in materia di accessibilità delle informazioni sottolineano l’importanza di utilizzare anche elementi visivi, come fotografie o grafici, e di fornire alternative testuali per le immagini, per comunicare il messaggio in modo efficace.
Di conseguenza, il provider deve adottare un approccio di Privacy by Design incentrato sull’Accessibilità Cognitiva. L’informazione sarà non solo testuale, ma dovrebbe avvalersi anche di strumenti multimodali e interattivi per massimizzare l’assimilazione cognitiva da parte del minore, evitando di creare situazioni di confusione che impediscano lo sviluppo di una sana autonomia.
Con la Delibera AGCOM 96/25/CONS l’Italia ha introdotto uno dei sistemi di Age Assurance più rigorosi d’Europa. Quali sono i punti di forza e le principali vulnerabilità di questo modello, soprattutto rispetto al rischio di elusione tramite servizi non europei?
L’efficacia del quadro normativo dipende dalla capacità tecnica dei titolari del trattamento di verificare l’età. La Delibera AGCOM n. 96/25/CONS stabilisce un quadro tecnico rigoroso per l’accertamento della maggiore età degli utenti (Age Assurance), in attuazione del “Decreto Caivano” (L. 159/2023). L’obiettivo fondamentale è impedire l’accesso dei minori (soglia di 18 anni) innanzitutto a contenuti a carattere pornografico online. La delibera AGCOM impone che i sistemi di Age Verification garantiscano un meccanismo di doppio anonimato volto a risolvere il potenziale conflitto tra la necessità di protezione e il diritto alla riservatezza. Il doppio anonimato prevede due livelli di segregazione dei dati: a) il fornitore del servizio di verifica (Identity Provider) non deve sapere a quale specifico sito web o piattaforma l’utente sta accedendo; b) la prova della maggiore età fornita al sito web (Service Provider) non deve contenere dati identificativi dell’utente.
Inoltre, è richiesto che i dati personali raccolti o generati nell’attuazione degli obblighi relativi alla verifica dell’età non siano trattati per scopi commerciali, come marketing diretto, profilazione o pubblicità comportamentale mirata. Il divieto impone la separazione netta tra i dati di autenticazione dell’età e i dati di business intelligence. Il doppio anonimato e la segregazione dei dati creano un muro normativo e tecnico tra le informazioni di identità anagrafica del minore e gli interessi di profitto della piattaforma, impedendo la mercificazione di tali dati. L’utilizzo di un intermediario indipendente e certificato per la fornitura della “prova della maggiore età” garantisce che questi requisiti di privacy siano rispettati.
Nonostante le garanzie sul fronte della minimizzazione dei dati e l’esplicita consultazione del Garante Privacy, il modello presenta una vulnerabilità intrinseca. L’elevata robustezza richiesta per la verifica, che può includere l’uso di scansioni di documenti o la consultazione di database certificati, se implementata in modo non ottimale, potrebbe aumentare la superficie di rischio per la centralizzazione dei dati personali da parte degli enti certificatori, o rendere il meccanismo eccessivamente costoso e complesso per i fornitori di servizi.
Tuttavia, la vulnerabilità maggiore del modello italiano riguarda l’efficacia dell’applicazione rispetto ai servizi non europei. Il principale strumento coercitivo di AGCOM è l’ordine di blocco a livello di ISP (blocco DNS) e l’applicazione di sanzioni, ma l’efficacia del blocco può essere facilmente eludibile tramite, ad esempio, l’uso di VPN.
Del resto, là dove soltanto i paesi europei si muniranno del meccanismo del doppio anonimato, il minore potrebbe aggirare la procedura di verifica dell’età utilizzando una piattaforma di un paese non sottoposto al prescritto obbligo.
Il legislatore italiano sta stratificando soglie diverse (14 anni per il consenso al dato, 15 per i contratti social, 18 per i contenuti sensibili). Questa pluralità regolatoria è un sintomo di frammentazione o l’inizio di un modello di “capacità digitale modulata” che evolve con la maturità del minore?
L’ordinamento sembra operare con una pluralità di soglie anagrafiche, dalla quale emerge la necessità di un modello di capacità elastica e funzionale che garantisca al contempo il controllo genitoriale ed eviti il continuo ricorso al giudice. L’età richiesta varia in modo proporzionale in base alla gravità e alla natura dell’atto: minore per l’autonomia informativa di base, maggiore per l’assunzione di impegni contrattuali complessi con impatto economico o identitario. L’utilizzo della capacità come criterio di proporzionalità regolatoria sposta l’attenzione dall’essere soggetto di diritto al potere di compiere atti giuridici validi, ovvero fa compiere al minore un balzo in avanti, emancipandolo.
L’esigenza di un approccio modulato all’atto sembrerebbe confermata dalla disciplina dell’attività promozionale svolta in rete dai minori, che costituisce uno degli ambiti più importanti del DDL 1136 relativo all’accesso ai servizi di social media e alla regolamentazione dei baby influencer. La proposta, prevedendo la nullità dei contratti relativi ad account creati e detenuti da minori di età non superiore a 15 anni, esprime una valutazione dell’inadeguatezza della capacitas iudicandi sotto tale soglia, per la gestione di atti negoziali dal decisivo impatto sia sotto il profilo dell’identità del minore sia sotto il profilo economico. Il tentativo di regolamentare l’attività dei baby influencer è un riconoscimento implicito del fatto che questi minori esercitano una capacità di agire specializzata e finanziariamente significativa che esige una regolamentazione di protezione dallo sfruttamento, imponendo un controllo sui proventi e sulle condizioni di “lavoro”, anche in presenza di un consenso all’uso del dato o dell’immagine.
E’ evidente la necessità da un lato di riconoscere al minore l’autonomia necessaria per lo sviluppo libero della propria personalità e dall’altro di prestare tutte le cautele affinché tale sviluppo sia sano e pieno: un bilanciamento che evidentemente dipende dalle conseguenze esistenziali e patrimoniali che l’atto da compiere può produrre sulla personalità e sull’esistenza del minore e della sua famiglia.
Nel Suo scritto emerge l’idea di una possibile “Emancipazione Digitale” con l’introduzione di un Curatore Digitale. In che modo questo modello potrebbe rendere il minore più autonomo nelle scelte online, senza però rinunciare al principio del best interest of the child e alla necessità di assistenza qualificata?
Il modello di curatela dell’emancipazione (art. 390 c.c.) potrebbe offrire una sponda per garantire l’esercizio in autonomia di specifici diritti e riservarne altri all’assistenza del curatore ovvero del genitore e soltanto in casi gravissimi al giudice.
La criticità maggiore per l’applicazione dell’istituto della emancipazione è l’incompatibilità al mondo digitale dello schema basato sulla distinzione tra atti di ordinaria e straordinaria amministrazione. Molti atti digitali (es. la divulgazione massiva e lo sharenting) non riguardano beni materiali, ma il patrimonio informativo, l’immagine e l’identità del minore. Se un post su un social media sembra un atto banale, le sue conseguenze (indicizzazione, memorizzazione e accessibilità permanenti) sono così profonde da compromettere il diritto all’oblio e generare valore economico (nel caso dei baby influencer). Il principale correttivo risiede nell’estendere il concetto di “straordinaria amministrazione” oltre la sfera patrimoniale classica, includendo il rischio identitario e reputazionale. Con la conseguenza che si potrebbe identificare l’atto come di Straordinaria Amministrazione Digitale quando: a) crea un impatto irreversibile sull’Identità Digitale perché ad esempio compromette il diritto all’oblio del minore e ha effetti permanenti o di difficile rimozione sulla sua identità personale; b) comporta il conferimento di dati personali in eccesso rispetto alle finalità del servizio, alimentando la datafication del minore a scopo commerciale; c) genera rilevanti introiti economici, per esempio l’impiego e lo sfruttamento commerciale del minore (baby influencing e sharenting) oltre specifiche soglie di durata o di introiti diretti/indiretti.
Per modulare efficacemente la capacità di discernimento online e ridurre la dipendenza dall’autorizzazione giudiziale, si potrebbe adattare l’emancipazione all’ambiente digitale (Emancipazione Digitale ED), mutuando dall’art. 390 c.c. la logica della capacità limitata e assistita, sganciandosi naturalmente dai presupposti dell’emancipazione matrimoniale.
La soglia anagrafica minima potrebbe ragionevolmente essere condizionata al superamento di percorsi certificati di digital literacy e cittadinanza digitale (Patto educativo digitale). L’obiettivo fondamentale dell’ED è quello di consentire al minore l’autonoma gestione degli Atti di Ordinaria Amministrazione Digitale, come l’iscrizione a servizi base, la gestione della messaggistica, senza il costante coinvolgimento del genitore. Il Curatore Digitale, ovvero l’esercente la responsabilità genitoriale (adeguatamente formato, come raccomandato dall’Autorità Garante per l’Infanzia), ha il compito fondamentale di assistere il minore nel compimento degli Atti di Straordinaria Amministrazione Digitale. La curatela, in questo senso, rappresenta lo strumento che permette al minore di esercitare una capacità parziale prima della maggiore età e di godere di un’assistenza continua da parte dei genitori. In caso di conflitto di interessi tra genitore/curatore e minore si può ricorrere alla nomina di un curatore speciale per garantire che l’assistenza sia effettivamente volta all’interesse del minore.
Da questa prospettiva, il genitore vedrebbe recuperato il suo ruolo di responsabile dell’educazione e della formazione del figlio, offrendo l’emancipazione un addentellato per compensare la “sottrazione di competenza” che il riconoscimento dell’autonomia del consenso a 14 anni di fatto implica, dato che comporta la cessazione dei sistemi di controllo parentale ma al contempo il mantenimento della responsabilità oggettiva dei genitori ex art. 2048 c.c., con una prova liberatoria che, in questo contesto, è quasi impraticabile.
La modulazione della capacità secondo una gradualità progressivamente emancipatoria calibrata sugli atti lascerebbe al genitore una funzione di assistenza continua fino a 18 anni.
.





