Class action inibitoria contro Meta e TikTok: il 14 maggio l’udienza al Tribunale di Milano

In un panorama globale profondamente mutato — con la tutela del diritto alla salute dei minori contro i rischi sistemici dei social è finalmente al centro dell’attenzione di media, giudici e istituzioni europee — si avvicina il momento in cui la giustizia italiana sarà chiamata a pronunciarsi.

La Redazione

Un clima di attenzione mediatica senza precedenti

L’attesa per l’udienza milanese cresce di giorno in giorno, alimentata da un’attenzione mediatica che ha ormai travalicato i confini specialistici per diventare un tema di dibattito pubblico nazionale. Nelle ultime settimane, l’opinione pubblica è stata scossa dalle notizie provenienti dagli Stati Uniti, dove sentenze storiche hanno iniziato a incrinare il muro di impunità delle Big Tech.

A Los Angeles, una giuria ha condannato Meta e Google a un risarcimento milionario per i danni alla salute mentale di una giovane utente — depressione, ansia, pensieri suicidi — causati dal design algoritmico delle piattaforme. Nel New Mexico, Meta è stata condannata a pagare 375 milioni di dollari per non aver protetto i minori dai predatori sessuali online, in quello che appare il primo processo con giuria in cui l’azienda è stata ritenuta responsabile per atti commessi da terzi sulla propria piattaforma. In entrambi i casi, le prove decisive sono emerse da documenti interni alle aziende, che dimostravano la piena consapevolezza dei rischi da parte dei vertici.

Questi precedenti confermano la validità scientifica e giuridica delle tesi portate avanti in Italia, nella class action inibitoria proposta a Milano contro Meta e TikTok: i social non sono prodotti neutri, ma sistemi progettati intenzionalmente per trattenere gli utenti — anche i più piccoli — poco importa se a scapito della loro salute fisica e mentale.

Anche la televisione e la stampa italiana hanno acceso i riflettori sulla nostra iniziativa. Programmi come “Fuori dal Coro” su Mediaset (con il servizio “Maledetta tecnologia, la sentenza storica: ‘I social la nuova droga‘”), “Otto e mezzo” su LA7 (rubrica “Il Punto” di Paolo Pagliaro) e “1Mattina” su Rai 1 hanno analizzato in profondità i rischi del design additivo e l’importanza della class action come strumento di difesa concreta per le famiglie italiane.

Per la carta stampata, si può citare l’ottimo articolo del Fatto Quotidiano, Class action contro i social network, le associazioni europee dei genitori valutano ricorsi legali come in Italia: “Incoraggiamo tutti ad agire”.

L’azione inibitoria italiana: un modello per l’Europa

La class action inibitoria promossa dal MOIGE (Movimento Italiano Genitori) e da numerose famiglie italiane, assistite dallo Studio Legale Ambrosio & Commodo di Torino, si fonda sull’art. 840-sexiesdecies del Codice di Procedura Civile. Non si tratta di una richiesta di risarcimento monetario individuale, ma di un’azione volta a ottenere un ordine giudiziale che imponga a Meta (Facebook e Instagram) e a TikTok di cessare i comportamenti pregiudizievoli e di adeguare strutturalmente le proprie piattaforme alla normativa vigente.

L’obiettivo è fare dell’Italia un esempio per l’intera Unione Europea: dimostrare che è possibile utilizzare il diritto civile — in combinato disposto con il GDPR e il Digital Services Act (DSA) — per imporre il principio del superiore interesse del minore sopra le logiche di profitto dell’economia dell’attenzione.

Proprio per queste ragioni, recentemente la European Patent Association (EPA), riunita a Parigi, ha suggerito di utilizzare l’azione come un esempio da replicare anche in altri Paesi europei.

Inoltre, l’8 maggio, a Roma, MOIGE organizza un incontro sull’iniziativa (dal titolo “Social sotto processo. La prima class action inibitoria europea a tutela dei minori”)

I tre pilastri della domanda giudiziale

Il ricorso, depositato il 24 luglio 2025 presso il Tribunale Civile di Milano, Sezione Specializzata in Materia di Impresa, si articola su tre richieste concrete e misurabili:

  1. Verifica certa dell’età (Age Verification): Implementazione di sistemi affidabili per impedire l’iscrizione ai minori di 14 anni e garantire il consenso verificabile di entrambi i genitori per la fascia 13-14 anni, superando il meccanismo della mera autodichiarazione, facilmente aggirabile.
  2. Eliminazione del design additivo: Stop allo scroll infinito, all’autoplay e ai sistemi di raccomandazione algoritmica progettati per massimizzare il tempo di permanenza sulla piattaforma, con ripristino della visualizzazione cronologica dei contenuti e introduzione di limiti temporali efficaci per i profili dei minori.
  3. Informazione trasparente sui rischi: Obbligo di pubblicare avvisi chiari e visibili sui reali pericoli delle piattaforme, inclusi i rischi di dipendenza comportamentale, la manipolazione algoritmica e il potenziale danno biologico permanente allo sviluppo neurologico negli adolescenti — analogamente a quanto avviene per i prodotti del tabacco.

La convergenza istituzionale: i Preliminary Findings della Commissione Europea

La battaglia legale avviata a Milano trova oggi una sponda decisiva nelle istituzioni europee.

Il 29 aprile 2026, la Commissione Europea ha emesso le proprie conclusioni preliminari (preliminary findings) nell’ambito del procedimento ai sensi del DSA avviato contro Meta (Facebook e Instagram). Secondo Bruxelles, Meta ha violato la normativa europea su più fronti critici: l’azienda non è riuscita a impedire efficacemente l’accesso alle piattaforme ai minori di 13 anni, i cui profili vengono aperti con la semplice dichiarazione di una data di nascita falsa, senza alcun controllo reale. La Commissione ha evidenziato inoltre l’inadeguatezza e la difficoltà d’uso degli strumenti messi a disposizione per segnalare gli account dei minori, nonché a monte, una valutazione dei rischi sistemici incompleta e arbitraria da parte dell’azienda.

Questo importante sviluppo odierno segue di quasi tre mesi le analoghe conclusioni raggiunte nel procedimento contro TikTok, comunicate dalla Commissione Europea il 6 febbraio 2026. In quella sede, Bruxelles aveva contestato formalmente alla piattaforma il suo design intrinsecamente additivo. Sotto accusa erano finiti lo scroll infinito, l’autoplay, le notifiche push e i sistemi di raccomandazione iper-personalizzati, ritenuti responsabili di indurre comportamenti compulsivi, ridurre l’autocontrollo degli utenti e spingere il cervello verso una sorta di “pilota automatico” che vanifica qualsiasi possibilità di uso consapevole della piattaforma. Inoltre, gli strumenti di gestione del tempo di utilizzo offerti da TikTok erano stati giudicati inefficaci per mitigare tali rischi.

I due provvedimenti riguardano piattaforme diverse e sono stati emessi in momenti distinti, ma i preliminary findings su Meta e su TikTok convergono sugli stessi nodi critici. In entrambi i casi, la Commissione Europea punta il dito contro il design additivo e l’inefficacia dei sistemi di verifica dell’età, dimostrando la coerenza dell’azione inibitoria milanese, indirizzata verso entrambe le aziende perché entrambe cagionano lo stesso danno agli utenti minori e lo fanno attraverso gli stessi strumenti: il design e il funzionamento della piattaforma, studiata per misurare e sfruttare le debolezze psicologiche del soggetto, per estrarne quanto più tempo (e più soldi) possibile, nella celebrazione dell’economia dell’attenzione e in spregio dei diritti della persona.

Le conclusioni preliminari della Commissione UE — prima su TikTok, ora su Meta — rappresentano una validazione istituzionale delle tesi giuridiche e scientifiche su cui si fonda la nostra azione.

La voce dell’Europa: la dichiarazione di Henna Virkkunen

Le conclusioni della Commissione trovano voce nelle parole della sua Vicepresidente Esecutiva, Henna Virkkunen, che ha dichiarato:

«La dipendenza dai social media può avere effetti dannosi sullo sviluppo mentale di bambini e adolescenti. Il Digital Services Act rende le piattaforme responsabili degli effetti che possono avere sui loro utenti. In Europa, applichiamo la nostra legislazione per proteggere i nostri bambini e i nostri cittadini online

Le piattaforme devono rispondere giuridicamente della sicurezza del proprio design, e la tutela dei minori è un obbligo — non un’opzione.

Il 14 maggio: una data per il futuro

L’udienza al Tribunale di Milano rappresenta un momento di verità. In un quadro internazionale segnato dalle condanne americane (Los Angeles e New Mexico) e dalla doppia convergenza istituzionale dei preliminary findings della Commissione Europea. Sarà l’occasione per ribadire che la salute psicofisica dei minori non può essere sacrificata sull’altare delle Big Tech.

La class action inibitoria non chiede soldi: chiede che le piattaforme smettano di fare del male. E sempre più voci — quelle dei giudici americani, quelle dei funzionari europei, quelle delle famiglie italiane — si uniscono per dire che questo è possibile, e che è necessario.

Segui gli aggiornamenti sull’udienza del 14 maggio su classactionsocial.it.

Articoli

Menu