Commissione europea apre un’indagine su Snapchat, nel mirino la tutela dei minori e la conformità al Digital Services Act

Commissione europea apre un’indagine su Snapchat, nel mirino la tutela dei minori e la conformità al Digital Services Act

La Commissione europea ha avviato un procedimento formale per verificare se Snapchat rispetti gli obblighi previsti dal Digital Services Act (DSA) in materia di sicurezza, privacy e protezione dei minori.

L’indagine, annunciata a Bruxelles, si concentra su cinque aree critiche: verifica dell’età, prevenzione dell’adescamento, impostazioni di sicurezza predefinite, diffusione di contenuti illegali e meccanismi di segnalazione.

Indagine formale, cosa contesta la Commissione a Snapchat

La Commissione europea ha aperto un iter ufficiale per valutare se Snapchat garantisca un livello adeguato di protezione ai minori, come richiesto dal Digital Services Act.

Per Bruxelles la piattaforma potrebbe aver esposto bambini e adolescenti a rischi significativi, tra cui:

  • tentativi di adescamento online,
  • reclutamento per attività criminali,
  • accesso a contenuti e prodotti illegali, come droghe, vaporizzatori e alcol.

L’indagine origina dall’analisi delle valutazioni di rischio presentate da Snapchat tra il 2023 e il 2025 e dalle informazioni raccolte dalle autorità nazionali, in particolare dai Paesi Bassi e dalla Germania.

Verifica dell’età, l’autodichiarazione non basta

La Commissione sospetta che Snapchat si affidi a un sistema di age verification troppo debole, basato quasi esclusivamente sull’autodichiarazione dell’utente.
Secondo Bruxelles:

  • i minori di 13 anni potrebbero accedere facilmente alla piattaforma,
  • non esisterebbero controlli efficaci per distinguere gli utenti sotto i 17 anni,
  • lo strumento per segnalare account di minori non sarebbe facilmente accessibile nell’app.

Tali elementi violerebbero gli standard di protezione previsti dal DSA e dalle linee guida UE del 2025 sulla tutela dei minori.

Adescamento e reclutamento, protezioni insufficienti

La Commissione teme che Snapchat non impedisca adeguatamente agli adulti di fingere di essere minorenni, aggirando i controlli sull’età.

Ciò potrebbe facilitare:

  • contatti indesiderati,
  • tentativi di sfruttamento sessuale,
  • reclutamento per attività criminali.

Per Bruxelles le misure di sicurezza attuali non sarebbero sufficienti a prevenire comportamenti dannosi.

Impostazioni predefinite poco sicure

Tra le criticità individuate:

  • i minori vengono automaticamente suggeriti ad altri utenti tramite “Trova amici”,
  • le notifiche push sono attive di default,
  • mancano istruzioni chiare sulle impostazioni di privacy e sicurezza.

Per la Commissione, le impostazioni iniziali dovrebbero garantire il massimo livello di protezione possibile.

Diffusione di contenuti illegali

La Commissione ritiene che gli strumenti di moderazione di Snapchat non siano sufficientemente efficaci nel bloccare contenuti che rimandano alla vendita di:

  • droghe,
  • prodotti con limiti di età,
  • vaporizzatori e alcol.

Inoltre, i minori potrebbero accedere facilmente a tali contenuti, in violazione del DSA.

Segnalazione dei contenuti illegali, meccanismi poco chiari

Per Bruxelles, i sistemi di segnalazione interni:

  • non sono facilmente accessibili,
  • potrebbero includere dark pattern,
  • non informano adeguatamente gli utenti sulle possibilità di ricorso.

Anche questo aspetto rientra tra gli obblighi previsti dal Digital Services Act.

Prossime tappe dell’indagine

La Commissione procederà ora tramite:

  • richieste formali di informazioni,
  • interviste e ispezioni,
  • eventuali misure provvisorie,
  • una possibile decisione di non conformità.

Il procedimento integra e assorbe l’indagine avviata nel 2025 dall’Autorità olandese per i consumatori e i mercati (ACM) sulle vendite di vaporizzatori ai minori tramite Snapchat.

Posizione della Commissione

Henna Virkkunen, vicepresidente esecutiva per Sovranità tecnologica, sicurezza e democrazia, ha dichiarato che la piattaforma sembra aver trascurato gli obblighi di sicurezza previsti dal DSA, soprattutto per quanto riguarda i minori.

Contesto normativo

Il Digital Services Act impone alle piattaforme online di:

  • mitigare i rischi sistemici,
  • garantire un elevato livello di protezione dei minori,
  • adottare sistemi di verifica dell’età affidabili,
  • prevenire la diffusione di contenuti illegali.

I cittadini possono segnalare violazioni al coordinatore dei servizi digitali del proprio Stato membro ovvero tramite lo strumento anonimo per whistleblower istituito dalla Commissione.