Tribunale di Amsterdam: Meta deve consentire agli utenti Instagram e Facebook di rifiutare l’organizzazione dei contenuti basata sulla profilazione

di Fabrizio Lala

Il 2 ottobre 2025, il Tribunale di Amsterdam ha pronunciato una sentenza di rilievo nel settore dei social network, accogliendo la domanda presentata da un’associazione olandese attiva in ambito di privacy e digitale, Bits of Freedom.

Il Giudice ha ordinato a Meta di interrompere una pratica manipolatoria presente su Facebook e Instagram – e sviluppata tramite le loro interfacce – legata alla profilazione algoritmica degli utenti[i].

Su entrambe le piattaforme, i contenuti (post, commenti) erano sistemati per impostazione predefinita secondo gli algoritmi Meta, che profilano l’attività online degli utenti e in base a questo decidono l’ordine dei contenuti visualizzati (e le pubblicità proposte). Sebbene esistesse un’opzione che consente di scegliere l’ordine cronologico dei contenuti, anziché l’opzione profilata, essa risultava in sostanza inaccessibile perché nascosta e invisibile agli utenti (ad es., dietro il logo della piattaforma!). Inoltre, qualora selezionata, il sistema non memorizzava mai la scelta, ristabilendo la profilazione ad ogni nuovo accesso.

L’azione, presentata in via cautelare da Bits of Freedom, insieme ad altre associazioni (European Digital Righs AISBR (EDRi), Gesellschaft fur Freiheitsrechte e.V. (GFF) e Convocation Design + Research), si fonda sul Digital Services Act (DSA, Regolamento UE 2022/2065) e, in particolari, sugli obblighi supplementari che prevede per le piattaforme di dimensioni molto grandi, come appunto Facebook e Instagram.

La pratica di Meta rientra nella nozione di “percorsi oscuri” (in inglese, “dark patterns”) considerata dal Regolamento DSA, ovvero “pratiche che distorcono o compromettono in misura rilevante, intenzionalmente o di fatto, la capacità dei destinatari del servizio di compiere scelte o decisioni autonome e informate”.

In questo senso si scontrano due interessi contrapposti: da un lato quello della piattaforma, che per massimizzare i profitti ha un chiaro interesse a promuovere la profilazione, perché su questa si basano gli introiti pubblicitari. Come dimostra bene la vicenda olandese, per raggiungere i propri scopi, l’azienda è disposta persino a nascondere gli strumenti che consentono all’utente per poter decidere le modalità della sua fruizione dei contenuti, influendo così direttamente sull’autodeterminazione individuale.

Dall’altro lato vi è invece l’interesse degli utenti, persone fisiche che hanno il diritto di conservare un’autonomia nella scelta delle impostazioni del sistema, come formalizzato dal DSA e ben illustrato nel seguente passaggio: “Ai fornitori di piattaforme online dovrebbe pertanto essere vietato ingannare o esortare i destinatari del servizio e distorcere o limitare l’autonomia, il processo decisionale o la scelta dei destinatari del servizio attraverso la struttura, la progettazione o le funzionalità di un’interfaccia online o di una parte della stessa. Ciò dovrebbe comprendere, a titolo non esaustivo, le scelte di progettazione a carattere di sfruttamento volte a indirizzare il destinatario verso azioni che apportano benefici al fornitore di piattaforme online, ma che possono non essere nell’interesse dei destinatari, presentando le scelte in maniera non neutrale, ad esempio attribuendo maggiore rilevanza a talune scelte attraverso componenti visive, auditive o di altro tipo nel chiedere al destinatario del servizio di prendere una decisione” (DSA, Considerando n. 67).

Tra i principali scopi del DSA vi è proprio quello di garantire un equilibrio tra le rispettive posizioni. A tal fine, l’art. 25 regola la “Progettazione e organizzazione delle interfacce online”, prevedendo che “i fornitori di piattaforme online non progettano, organizzano o gestiscono le loro interfacce online in modo tale da ingannare o manipolare i destinatari dei loro servizi o da materialmente falsare o compromettere altrimenti la capacità dei destinatari dei loro servizi di prendere decisioni libere e informate”.

L’art. 27, applicato dal Giudice olandese nella decisione in commento, concerne invece la “Trasparenza dei sistemi di raccomandazione”, prevedendo tra l’altro che “qualora siano disponibili diverse opzioni a norma del paragrafo 1 per i sistemi di raccomandazione che determinano l’ordine relativo delle informazioni presentate ai destinatari del servizio, i fornitori di piattaforme online rendono disponibile anche una funzionalità che consente al destinatario del servizio di selezionare e modificare in qualsiasi momento l’opzione preferita. Tale funzionalità è direttamente e facilmente accessibile dalla sezione specifica dell’interfaccia online della piattaforma online in cui alle informazioni è data priorità”.

Per molti, e in particolare per i giovani, le piattaforme sono una fonte privilegiata di notizie e informazioni. È quindi fondamentale che gli utenti possano decidere autonomamente quali contenuti visualizzare nel proprio feed. Senza questa libertà di scelta, la partecipazione al dibattito pubblico risulta seriamente ostacolata. Nel caso in esame, questo è evidenziato dai ricorrenti, i quali avevano sottolineato l’urgenza di intervento del Giudice, viste le elezioni previste in Olanda alla fine di ottobre.

Il Giudice ha concluso che Meta ha violato il DSA, deducendo che il modo in cui Meta ha progettato le sue piattaforme costituisce “una significativa violazione dell’autonomia degli utenti di Facebook e Instagram”. Il Tribunale ha dunque ordinato a Meta di modificare stabilmente (non solo durante il periodo elettorale, come richiesto da Meta) le impostazioni di Instagram e Facebook in modo che la scelta dell’utente sia agevolata, poi anche preservata, quando l’utente naviga in un’altra sezione della piattaforma o riavvia l’app.

Il DSA è tra i testi di legge su cui si fonda la class action inibitoria che lo Studio A & C ha instaurato dinanzi al Tribunale di Milano, a tutela dei diritti dei minori e dei loro genitori, che sono stati o rischiano di essere danneggiati dall’architettura e dal funzionamento di Instagram, Facebook e TikTok.

Oltre alle regole sopra illustrate relative all’impostazione delle piattaforme, di sicuro rilievo anche nell’ambito della class action – in cui si chiede tra l’altro di eliminare tutti gli strumenti volti ad instaurare una dipendenza dai social in capo agli utenti – il DSA prevede norme di rilievo anche per quanto attiene alla tutela dei minori online, a partire dall’art. 28 – “Protezione dei minori online” – che obbliga le piattaforme accessibili ai minori di adottare “misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e protezione dei minori sul loro servizio”.

Se vuoi approfondire, visita il sito dedicato alla nostra iniziativa, www.classactionsocial.it


[i] La nozione di profilazione è definita come “qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica (art. 4.4. GDPR, Reg. UE 2016/679).

Articoli

Menu