skip to Main Content

La Commissione europea avvia un’indagine su Snapchat per la tutela dei minori ai sensi del Digital Services Act

La Commissione europea ha avviato un procedimento formale nei confronti di Snapchat per verificare la conformità della piattaforma agli obblighi previsti dal Digital Services Act in materia di protezione dei minori. L’iniziativa si inserisce nel quadro dei poteri di vigilanza attribuiti all’istituzione europea nei confronti delle grandi piattaforme online, con particolare attenzione ai rischi sistemici che possono incidere sulla sicurezza e sui diritti degli utenti più giovani.

L’apertura dell’indagine si fonda sul sospetto che i sistemi adottati dalla piattaforma non garantiscano un livello adeguato di tutela, esponendo i minori a contenuti e comportamenti potenzialmente dannosi. Tra le criticità individuate figura innanzitutto il tema della verifica dell’età: il ricorso alla semplice autodichiarazione, secondo la Commissione, potrebbe non essere sufficiente a impedire l’accesso ai minori di 13 anni né a modulare adeguatamente l’esperienza degli utenti adolescenti.

Un secondo ambito riguarda la protezione da contatti indesiderati o pericolosi. L’ipotesi è che le misure attuali non siano idonee a prevenire fenomeni come il grooming o il coinvolgimento in attività illecite, anche a causa della possibilità per alcuni utenti di dichiarare un’età non corrispondente a quella reale. In questo contesto, la capacità della piattaforma di limitare interazioni rischiose appare centrale nella valutazione complessiva.

La Commissione esamina inoltre le impostazioni predefinite degli account, che secondo le prime valutazioni potrebbero non offrire livelli sufficienti di sicurezza e riservatezza. Tra gli elementi considerati vi sono i meccanismi di suggerimento dei contatti e la configurazione automatica di alcune funzionalità, che potrebbero aumentare la visibilità dei minori senza adeguate garanzie.

Ulteriori profili riguardano la diffusione di contenuti relativi alla vendita di prodotti illegali o soggetti a restrizioni di età, come sostanze stupefacenti, alcol o dispositivi per il fumo. In base al quadro normativo europeo, le piattaforme sono tenute ad adottare misure efficaci per mitigare tali rischi, e l’indagine mira a verificare se gli strumenti di moderazione adottati siano adeguati a questo scopo.

Infine, l’attenzione si concentra sui sistemi di segnalazione dei contenuti illeciti, che dovrebbero essere facilmente accessibili e comprensibili per gli utenti. La Commissione valuta se le attuali modalità rispettino questi requisiti o se, al contrario, presentino criticità tali da ostacolare l’esercizio dei diritti da parte degli utenti.

L’avvio del procedimento consente alla Commissione di approfondire l’analisi attraverso richieste di informazioni, ispezioni e audizioni, e apre la strada a eventuali misure correttive o sanzionatorie. L’indagine si collega anche ad attività già avviate a livello nazionale, in particolare nei Paesi Bassi, e si inserisce in un più ampio sforzo di coordinamento tra autorità europee per l’applicazione del quadro normativo digitale.

Nel complesso, il caso rappresenta un banco di prova per l’attuazione del Digital Services Act, soprattutto per quanto riguarda la capacità delle piattaforme di tradurre in pratica gli obblighi di protezione dei minori in ambienti digitali complessi e in continua evoluzione.

Back To Top