Prosegue la Class Action per la tutela dei minori sui social: Meta (Facebook, Instagram) e TikTok si sono costituite confidando in questioni procedurali per rinviare la discussione.
Nel frattempo, un Tribunale tedesco sanziona TikTok per mancata verifica dell’età e la Commissione UE divulga le proprie conclusioni preliminari, che evidenziano la responsabilità dell’azienda per un design che crea dipendenza e contenuti dannosi
- I rischi e i danni dei social: legge vigente e consenso internazionale sulla necessità di intervento
La class action instaurata a Milano dallo Studio A&C in favore del Movimento Italiano Genitori (MOIGE) e di alcune famiglie i cui figli hanno patito gravi danni a causa delle pratiche dei social di Meta e TikTok – e/o che continuano a subire i seri rischi di pregiudizio legati al funzionamento delle piattaforme – muove dalla constatazione che la legge vigente è palesemente ignorata da anni da parte delle aziende responsabili dei social network.
In primis, la legge in vigore per garantire un accesso ai social network (e ai rischi che ad essi sono collegati), la cui semplice applicazione garantirebbe una maggiore tutela degli adolescenti fino ai 14 anni, è il Regolamento generale per la protezione dei dati personali UE (GDPR).
Ne ha fatto recentemente applicazione il Tribunale di Berlino II, in una causa nei confronti di TikTok, relativa al suo sistema di verifica dell’età – sistema che, come si vedrà, non è semplicemente presente, nonostante le norme esistenti, con tutto ciò che ne comporta in termini di rischi per i minori. Illustreremo la decisione nel seguito (lett. B).
Nel frattempo, vari Paesi, osservando i gravissimi rischi e danni allo sviluppo dei minori che la perdurante inazione sta causando, hanno deciso altresì di approvare ulteriori norme nazionali che proibiscano espressamente l’accesso dei pre-adolescenti ai social. Così, la Spagna di Sanchez ha annunciato una nuova legge che vieterà esplicitamente l’accesso agli under 16, nonché la previsione di una responsabilità legale in capo ai CEO delle big tech per i reati commessi sui social network, descritti come spazi di “dipendenza, abuso, pornografia, manipolazione e violenza“. Analogamente, la Francia sta emanando anch’essa una legge ad hoc che introduce un ulteriore divieto di accesso prima dei 15 anni. Iniziative analoghe si segnalano anche in Grecia, Portogallo, Danimarca ed Austria.
In Australia, la legge su questo tema è entrata in vigore da alcuni mesi ormai.
Un’altra notizia di rilievo sul tema è costituita dalle notizie provenienti da Bruxelles (lett. C) che segnalano i progressi compiuti dalla Commissione UE nel contesto del procedimento instaurato contro TikTok già due anni fa, nel febbraio 2024. La Commissione, preoccupata per il gran numero di rischi per i minori determinati dalle impostazioni e dal funzionamento dei social, ha infatti iniziato due anni orsono ad indagare (tra gli altri) i sistemi di TikTok e di Meta (in questo caso, con procedimento instaurato nel 2024)
Analogamente a quanto si osserva nell’ambito di tale azione ai sensi del Regolamento UE Digital Services Act (DSA) anche l’azione di classe instaurata a Milano dallo Studio A&C vuole intervenire sulle impostazioni della piattaforma, di per sé dannose per i giovani utenti. L’azione italiana, in favore degli utenti attivi nella nostra penisola, è volta ad un intervento urgente del Giudice italiano per porre rimedio alla situazione attuale di grave pericolo per i minori, confermata nei giorni scorsi dalle conclusioni preliminari della Commissione, che illustreremo nel seguito.
Le aziende dei gruppi Meta e TikTok si sono costituite nella causa milanese negando l’evidenza e formulando numerosissime eccezioni formali, ottenendo un rinvio della prima udienza di discussione, che è ora fissata nel corso del prossimo mese di maggio.
Nel merito, le società resistenti hanno tentato di dimostrare il presunto rispetto delle norme vigenti, soprattutto attraverso riferimenti a documenti di policy interni ed astratti, scritti dalle aziende stesse. Inoltre, come si può notare anche guardando il breve video che riassume l’azione, che pubblichiamo vicino al presente articolo, le società tentano di affermare di non poter essere ritenute responsabili per le proprie consapevoli scelte imprenditoriali, puntando inoltre il dito su altri soggetti – a partire dai genitori dei minori esposti a rischi e danni sulle piattaforme.
Nel frattempo, negli Stati Uniti, stanno muovendo i primi passi le numerosissime cause instaurate contro i danni biologici causati ai minori dai social network (dalla dipendenza dalle piattaforme, fino al suicidio), ivi inclusi Meta e TikTok. Le azioni, promosse dai genitori di minori che hanno perso la vita o hanno subito gravi danni biologici, ma anche da ben 40 procuratori degli Stati USA e da distretti scolastici, si fondano anche su copiosa documentazione interna dei due gruppi che attesta la consapevolezza della dipendenza che le piattaforme ingenerano nei minori, a partire dai celebri Facebook Files – documenti allegati peraltro anche alla class action instaurata dallo Studio A&C a Milano.
- Il Tribunale di Berlino condanna TikTok per mancata verifica dell’età dei minori:
In Italia, per accedere a TikTok (come anche a Instagram e Facebook) basta indicare una data di nascita corrispondente ad almeno 13 anni compiuti.
Questo è contrario alle leggi in vigore nell’Unione Europea e nei suoi Stati membri, come la Germania e l’Italia – a partire dal GDPR (Regolamento generale sulla protezione dei dati) e dai codici privacy nazionali. Il primo prevede all’art. 8 un’età minima di 16 anni per poter accedere ai servizi di social network, consentendo ai legislatori nazionali di fissare un limite minore, non inferiore ai 13 anni.
In Italia, ad esempio, il codice privacy prevede il limite minimo di 14 anni, 13 qualora sia presente anche il consenso di entrambi i genitori del minore. Nonostante ciò, per iscriversi in realtà basta indicare un’età di almeno 13 anni, senza che venga richiesta alcuna autorizzazione, né alcuna prova della dichiarazione.
In Germania, il Tribunale regionale di Berlino II, pronunciatosi su una causa proposta dall’Associazione federale dei consumatori (VZBV – Verbraucherzentrale Bundesverband)[1], ha ordinato a TikTok di non utilizzare più i dati personali degli utenti minori di età compresa tra i 13 e i 16 anni non ancora compiuti per finalità di marketing o pubblicità personalizzata.
In Germania come ovunque in UE, infatti, l’età di riferimento dell’utente che si iscrive (in questo caso) a TikTok si basa esclusivamente sulle informazioni fornite dall’utente stesso durante il processo di registrazione.
Secondo i Giudici tedeschi, la semplice richiesta della data di nascita al momento della registrazione costituisce peraltro un chiaro incentivo per i giovani a dichiararsi più grandi per aggirare i limiti di età e le funzioni limitate. Si tratta di una conclusione intuitiva, che è destinata ad essere applicata in tutta Europa, visto il chiaro dettato legislativo.
Il Tribunale ha ritenuto dunque questa pratica dell’azienda, che favorisce l’accesso indiscriminato di minori nella piattaforma, insufficiente a garantire che i dati personali dei minori di età inferiore ai 16 anni non vengano trattati a fini pubblicitari senza il consenso dei genitori. La vendita di spazi pubblicitari basati sullo studio minuzioso dell’attività degli utenti e delle loro caratteristiche (a partire della loro fascia di età, peraltro) sono infatti la linfa vitale delle piattaforme social, garantendo gran parte dei loro introiti.
Risulta evidente che il minore sotto età che acceda mentendo sulla propria data di nascita fruirà di un’esperienza diversa da quella per lui adeguata, con tutti i rischi che ne conseguono.
Perciò, il Tribunale berlinese ha vietato a TikTok di trattare i dati personali degli utenti registrati di questa fascia d’età senza il consenso dei titolari della responsabilità genitoriale per l’invio di messaggi di marketing e la visualizzazione di pubblicità personalizzate, tenendo conto che l’età (presunta) dell’utente è determinata esclusivamente sulla base dell’autodichiarazione. Per garantire il rispetto del provvedimento, Il Landgericht Berlin II ha previsto una sanzione fino a 250.000 euro in caso di violazione.
- Le conclusioni preliminari della Commissione UE nel quadro del procedimento ai sensi del DSA: design e sistemi additivi, insufficienza della valutazione del rischio
Il 6 febbraio 2026 la Commissione ha divulgato il contenuto delle proprie conclusioni preliminari, nel quadro del procedimento instaurato nel febbraio 2024 nei confronti di TikTok ai sensi del Digital Services Act (Reg. UE 2022/2265), avente ad oggetto la tutela dei minori, la trasparenza della pubblicità, l’accesso ai dati in favore dei ricercatori e la gestione del rischio con riferimento al design additivo ed ai contenuti dannosi.
Secondo la Commissione, TikTok ha violato le norme UE per il suo design che crea dipendenza, il quale include funzionalità come lo scorrimento infinito, la riproduzione automatica dei contenuti, le c.d. notifiche push e il suo sistema di raccomandazione altamente personalizzato.
Il comunicato stampa della Commissione pone l’accento sull’inadeguatezza della valutazione del rischio compiuta dall’azienda sui propri sistemi, evocando altresì i risultati della ricerca scientifica, secondo cui il funzionamento della piattaforma (che rischia di “mettere il cervello in modalità pilota automatico”) può indurre comportamenti compulsivi e a ridurre l’autocontrollo.
TikTok avrebbe inoltre ignorato importanti indicatori dell’uso compulsivo dell’app, come il tempo speso sull’app dai minori anche durante la notte, l’inefficacia degli strumenti di gestione del tempo e di controllo parentale
La Commissione ritiene che TikTok debba modificare la struttura di base del suo servizio, attraverso la disabilitazione delle principali caratteristiche che creano dipendenza, a partire dallo scorrimento infinito dei contenuti (infinite scrolling), ponendo in essere effettive modalità di interruzioni dell’uso dell’app e adattando il suo sistema di raccomandazione.
Se l’azienda non adempirà all’invito della Commissione di adeguare i propri sistemi alle norme vigenti, rischia una sanzione fino al 6% del suo fatturato annuo.
Per ulteriori approfondimenti, è possibile scrivere ai professionisti dello Studio legale A&C all’indirizzo info@ambrosioecommodo.it.
[1] Landgericht Berlin II, Sentenza del 23.12.2025, 15 O 271/23.


