Ridisegnare le piattaforme per bloccare la dipendenza, nuove frontiere tra verifica dell’età e libertà di esplorazione

in Articoli e studi

 

SINTESI : Una sentenza del Tribunale della California del 25 marzo 2026 ha segnato una svolta, dichiarando Meta responsabile dei danni causati a un minore per via di un design volto a creare dipendenza. Durante il processo, il vertice di Meta si è scusato per l'inefficacia del controllo dell'età. Gli algoritmi sono stati messi sotto accusa perché orientano i gusti e condizionano i comportamenti attraverso meccanismi come lo scorrimento infinito (scroll) e l'autoplay. Le piattaforme sfruttano vulnerabilità come la FOMO (paura di essere tagliati fuori) e rilasciano ricompense variabili intermittenti (simili alle slot machine) che generano picchi di dopamina. Per contrastare il consumo compulsivo, si propone una riprogettazione basata sulle neuroscienze dello sviluppo e tre strumenti tecnici principali: Decelerazione dei feed: Sostituire lo scroll infinito con modalità che incentivino l'esplorazione consapevole anziché il consumo passivo; Autonomia di scelta: Limitare le proposte automatiche degli algoritmi, lasciando all'utente il controllo sulla ricerca dei contenuti; Frizioni o stop riflessivi: Introdurre pause intenzionali, conferme prima della condivisione e notifiche periodiche per aumentare la consapevolezza delle proprie scelte (processi metacognitivi).

Nel Quadro Normativo in Italia ed in UE la protezione dei minori si muove su due binari: la gestione dei dati personali e la sicurezza dei contenuti. Il Digital Services Act (DSA) impone alle grandi piattaforme (VLOPs) valutazioni del rischio e strumenti di verifica dell'età per proteggere i minori da contenuti dannosi o manipolazioni. Il GDPR regola il Consenso Digitale: In Italia, l'età minima per prestare il consenso al trattamento dei dati è 14 anni. Sotto questa soglia, è necessario il consenso dei genitori. La L. 132/2025 ribadisce che l'accesso alle tecnologie di AI per i minori di 14 anni richiede l'autorizzazione genitoriale.

L'Autorità AGCM ha già avviato sistemi di age verification per i siti pornografici, considerati un primo passo verso un'applicazione più vasta a tutela dei minori.

Le associazioni di consumatori hanno chiesto un intervento collettivo inibitorio su Instagram per evitare che minori di 14 anni continuino ad iscriversi senza la vigilanza dei genitori.

L'obiettivo futuro è passare dal condizionamento algoritmico a un affiancamento allo sviluppo cognitivo, garantendo che l'accesso ai social sia una scelta libera e non una dipendenza.

1. La sentenza del Tribunale della California

La sentenza del Tribunale della California Los Angeles contro Meta e Google consente di aprire un dibatto sull’effettività della protezione dei minori nel contesto digitale e sulla necessità di aumentare la protezione dei minori con strumenti efficienti e sicuri. La sentenza ha dimostrano che la questione non è l'abuso che i minori ne fanno, ma la progettazione del prodotto che induce dipendenza e quindi abuso.

Durante il processo a Los Angele il 18 febbraio 2026 il Patron di Meta si è scusato per non aver impedito l’iscrizione di minori ai suoi social, ammettendo di fatto che il controllo dell’età non era performante.

Il pericolo a cui sono stati esposti i minori è stato il potere dell’agoritmo, che orienta scelte e gusti, condiziona comportamenti e crea volutamente dipendenze.

Il 25 marzo 2026 il Tribunale della California ha dichiarato Meta responsabile dei danni subiti da un minore a causa della creazione di dipendeze provocate da design, da scroll infiniti, auto play, feed ottimizzati e da raccomandazioni algoritmiche. Il Tribunale della California ha accesso l’accento sulla corretta progettazione delle piattaforme e dei contenuti , evidenziando la necessità della corretta regolamentazione del design delle piattaforme.

Rispetto al passato l’approccio della difesa è stato quello di attaccare il meccanismo di funzionamento delle piattaforme, come se il prodotto fosse illegale e dannoso per la salute, non solo difettoso ma pericoloso usando sistemi che attivano la dopamina.

Il primo approccio adottato si era rivelato non vincente perché la Sezione 230 del Communications Decency Act del 1996 esonera le piattaforme da ogni responsabilità per i contenuti pubblicati dagli utenti, mentre questo nuovo approccio si è rivelato vincente perché incide sul processo produttivo/creativo del prodotto, nel cui ambito devono essere valutati i rischi ai cui si espongono gli utenti. La consapevole scelta di creare dipendenza e compulsione costituisce una consapevole assunzione del rischio di danni agli utenti, tanto che il Tribunale di Delaware ha stabilito che la copertura assicurativa per responsabilità civile non copre atti deliberati consapevolmente di creare danni ai minori rispetto all’uso di Facebook ed Instragram.

Lo scroll infinito che non si interrompe mai, le notifiche progettate per creare urgenza e ansia da reazione, i video che partono da soli prima ancora che tu abbia deciso di guardarli, i filtri di bellezza integrati nell’interfaccia come se ritoccare il proprio viso fosse la normalità, sono alcuni degli elementi dell’accusa.

La giovane età degli utenti aumenta i feed delle piattaforme, per questo la normativa UE si muove da sempre tra divieto di accesso in età pre adolescenziale e regolamentazione del design delle piattaforme.

2. Gli strumenti regolatori per contenere il rischio

Gli strumenti regolatori per contenere il rischiodi dipendenza sono noti alla tecnica progettuale e sono di tre tipologie : decellerazione dei feed, autonomia di scelta, stop o frizioni riflessive.

Per decellerazione dei feed si intende la sostituzione dello scroll infinito con presentazione dei contenuti che miri ad incentivare l’esplorazione e non il consumo compulsivo, con un controllo da parte dell’utente dei contenuti a cui accedere

Per autonomia di scelta si intende la limitazione delle proposte autonome degli algoritmi per passare ad una gestione da parte degli utenti dei contenuti da ricercare grazie agli algoritmi, che dovranno essere a servizio dell’utente per una ricerca aperta e non condizionata.

Per stop riflessivi si intende l’introduzione di pause intenzionali riflessive, conferme prima di procedure alla condivisione di contenuti proprio o di navigazione, introduzione di notifiche periodiche gestate dai propri pattern di controllo in modo da essere effettivamente autogestiti ed incrementare la consapevolezza delle scelte da parte dell’utente, con l’obiettivo di sviluppare processi metacognitive sopratutto negli adolescenti .

Il fulcro dei futuri interventi progettuali e regolatori dovrà essere l’affiacamento allo sviluppo cognitivo e non più il condizionamento, le neuroscienze dello sviluppo dovranno guidare una riprogettazione legale in un quadro regolatorio che l’Unione Europea ha delineato con il DSA ed il Mercato digitale.

3. Quadro normativo

Il DSA rappresenta un primo baluardo a difesa degli utenti digitali. La futura norma sull’equità digitale (DFA) costituirà un ulteriore strumento a tutela dei consumatori, in particolare di quelli vulnerabili come i minori. I minori sono soggetti vulnerabili nel contesto digitale e non, per cui necessitano di protezione e tutela sia rispetto all’accesso ai social network che alla formulazione del consenso relativo al trattamento dei propri dati personali.

Le fonti normative unionali delineano la strada per gli Stati Membri ed impongono alle multinazionali ed alle piattaforme regole per l’accesso, per i contenuti, per la progettazione e per la fidelizzazione degli utenti digitali.

La normativa ha l’obiettivo di creare un equilibrio tra la libertà di espressione, di accesso all'informazione, di uso di dati ed immagini con il diktat di garantire una protezione rafforzata ai minori nel contesto digitale.1

Il nucleo della normative europea è rappresentato dal GDPR (Regolamento (UE) 2016/679) e dal Digital services act (DSA), Market service act dal prossimo DFA.

La Risoluzione del Parlamento europeo del 12 dicembre 2023 2 spiegava come le funzioni della progettazione di prodotti digitali social che crea dipendenza sono spesso legate a modelli psicosociali che sfruttano i bisogni psicologici, le vulnerabilità e i desideri dei consumatori, quali l'appartenenza sociale, l'ansia sociale, la FOMO ("Fear of missing out", ovvero la paura di essere tagliati fuori, che è accresciuta dal fatto che le informazioni sono disponibili solo temporaneamente, come le "storie" o la notifica che qualcuno "sta scrivendo..."), gli effetti di rete e il desiderio di terminare le attività che appaiono in un unico flusso, seppur interrotto, che è generato, ad esempio, eliminando tutti i segnali di interruzione (attraverso lo scorrimento infinito, la scomparsa di contenuti particolarmente interessanti non appena si ricarica il proprio news feed e la riproduzione automatica), fissando obiettivi per gli utenti, come i cosiddetti "streaks", e sfruttando la perdita di autocontrollo; che le funzioni della progettazione possono creare dipendenza per diversi motivi, ad esempio a causa della ricompensa variabile intermittente che, analogamente al meccanismo delle slot machine, porta a un'impennata di dopamina, come le notifiche push, o la reciprocità sociale che provoca reazioni chimiche nel cervello, per cui da un lato le persone ricevono gratificazioni sociali, come i "mi piace", e dall'altro sentono la pressione sociale di dover rispondere agli altri, come nel caso delle conferme di lettura; che le funzioni sopra descritte sono combinate con una personalizzazione minuziosa per influenzare gli utenti a livello individuale, aumentando in tal modo i modelli comportamentali e i rischi identificati.

La protezione dei dati personali del minore rappresenta un diritto al libero sviluppo della propria personalità quando si verificano condizioni di “autodeterminazione informativa”, comporta una tutela della persona e della sua identità, dignità e libertà da discriminazioni vecchie e nuove, che la potenza della rete è spesso in grado di amplificare.

Nel GDPR la protezione dei minori è focalizzata sul prevenire l’uso non autorizzato dei dati personali dei minori, Il Considerando 38 del Regolamento afferma:

“I minori meritano una specifica protezione relativamente ai loro dati personali, in quanto possono essere meno consapevoli dei rischi, delle conseguenze e delle misure di salvaguardia interessate nonché dei loro diritti in relazione al trattamento dei dati personali. Tale specifica protezione dovrebbe, in particolare, riguardare l’utilizzo dei dati personali dei minori a fini di marketing o di creazione di profili di personalità o di utente e la raccolta di dati personali relativi ai minori all’atto dell’utilizzo di servizi forniti direttamente a un minore” [Judgment of the Court (Grand Chamber) of 4 July 2023.][Sentenza della Corte (Grande Sezione) del 4 luglio 2023. Meta Platforms Inc. e a. contro Bundeskartellamt. Domanda di pronuncia pregiudiziale proposta dall'Oberlandesgericht Düsseldorf. Causa C-252/21.].

Questo principio impone ai titolari del trattamento, come i gestori di social network, obblighi di trasparenza e correttezza particolarmente stringenti. Le informazioni e le comunicazioni relative al trattamento dei dati devono essere fornite con un linguaggio semplice e chiaro, facilmente comprensibile da un minore [Judgment of the Court (First Chamber) of 26 October 2023.][Judgment of the Court (First Chamber) of 22 June 2023.][Sentenza della Corte (Prima Sezione) del 22 giugno 2023. Causa promossa da J.M. Domanda di pronuncia pregiudiziale proposta dall'Itä-Suomen hallinto-oikeus. Causa C-579/21.].

L'articolo 8 del GDPR disciplina le "Condizioni applicabili al consenso dei minori in relazione ai servizi della società dell'informazione", categoria che include i social network [Delibera 61/24/CONS][Delibera 96/25/CONS]. La norma fissa a 16 anni l'età a partire dalla quale il minore può prestare autonomamente un valido consenso al trattamento dei propri dati personali. Tuttavia, il medesimo articolo consente agli Stati membri di abbassare tale soglia fino a un'età non inferiore a 13 anni. L'Italia ha esercitato questa facoltà, fissando l'età del consenso digitale a 14 anni (tramite l'art. 2-quinquies del D.Lgs. 196/2003, come modificato dal D.Lgs. 101/2018)

Ciò significa che in Italia i tredicenni necessitano del consenso dei genitori per iscriversi alle piattaforme online di Meta e per utilizzare servizi che implicano la raccolta di dati personali in contesti digitali. Mentre, i minori di 13 anni non possono accedere alle piattaforme social.

Il Regolamento UE 2022/2065 detto DSA regola le piattaforme online ed i fornitori di servizi digitali che operano all’interno dell’Unione Europea, è ispirato al principio del miglior interesse del minore e il diritto alla protezione del bambino.

Il Regolamento stabilisce che le piattaforme online devono effettuare una valutazione del rischio e adottare misure per affrontare i rischi per i minori presenti sulle loro piattaforme. Questo include rischi come la diffusione di contenuti illegali e dannosi, l’abuso sessuale, il cyberbullismo. Le piattaforme sono tenute a individuare eventi di manipolazione intenzionale del servizio, tramite ad esempio la predisposizione di account falsi o l’uso di sistemi automatizzati, che “possono condurre alla rapida e ampia diffusione di informazioni che costituiscono contenuti illegali o comunque in grado di avere ripercussioni negative, effettive o prevedibili, sulla tutela della salute pubblica, dei minori…”

Di conseguenza, attualmente :

  • per i minori di 14 anni: Il trattamento dei loro dati personali è lecito solo se e nella misura in cui il consenso è prestato o autorizzato dal titolare della responsabilità genitoriale [vedasi anche LEGGE 23 settembre 2025, n. 132].

  • per i minori tra 14 e 18 anni: Possono prestare autonomamente il proprio consenso al trattamento dei dati personali per l'accesso ai servizi della società dell'informazione [LEGGE 23 settembre 2025, n. 132].

La Corte di Giustizia dell'Unione Europea ha più volte ribadito che il consenso, per essere valido, deve essere "libero, specifico, informato e inequivocabile" [Sentenza della Corte (Prima Sezione) del 4 ottobre 2024.Agentsia po vpisvaniyata contro OL.Rinvio pregiudiziale – Protezione delle persone fisiche con riguardo al trattamento dei dati personali – Regolamento (UE) 2016/679 – Pubblicazione, nel registro del commercio, di un contratto di società contenente dati personali – Direttiva (UE) 2017/1132 – Dati personali non obbligatori – Assenza di consenso da parte della persona interessata – Diritto alla cancellazione – Danno morale.Causa C-200/23.].

La Corte ha sottolineato che il consenso non può essere considerato liberamente prestato se l'interessato non è in grado di operare una scelta autenticamente libera o è impossibilitato a rifiutare o revocare il consenso senza subire un pregiudizio [Judgment of the Court (Grand Chamber) of 4 July 2023.][Sentenza della Corte (Grande Sezione) del 4 luglio 2023. Meta Platforms Inc. e a. contro Bundeskartellamt. Domanda di pronuncia pregiudiziale proposta dall'Oberlandesgericht Düsseldorf. Causa C-252/21.].

Nella sentenza relativa a Meta Platforms, la Corte ha chiarito che la posizione dominante di un operatore di social network sul mercato è un "elemento importante per determinare se il consenso sia stato effettivamente prestato validamente e, in particolare, liberamente", e spetta all'operatore stesso dimostrarlo.

Questo "evidente squilibrio" tra l'utente (specialmente se minore) e il titolare del trattamento rende più difficile presumere la libertà del consenso.

Il Regolamento (UE) 2022/2065 (Digital Services Act - DSA) introduce ulteriori obblighi per le piattaforme online, con un'attenzione specifica alla tutela dei minori.

L'articolo 28 del DSA impone ai fornitori di piattaforme online accessibili ai minori di adottare "misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori" [Delibera 61/24/CONS][Delibera 96/25/CONS].

Inoltre, l'articolo 35 richiede alle piattaforme di dimensioni molto grandi (VLOPs) di implementare misure di attenuazione dei rischi sistemici, tra cui rientrano esplicitamente "strumenti di verifica dell’età e di controllo parentale" [Delibera 61/24/CONS][Delibera 96/25/CONS].

In Italia la soglia per il consenso digitale è 14 anni, la L. 132/2025 in vigore dal 10 ottobre 2025, ribadisce questo principio, specificando che "l'accesso alle tecnologie di intelligenza artificiale da parte dei minori di anni quattordici nonche' il conseguente trattamento dei dati personali richiedono il consenso di chi esercita la responsabilita' genitoriale".

La stessa legge conferma che il minore che ha compiuto 14 anni può esprimere il proprio consenso, a condizione che le informative siano facilmente accessibili e comprensibili.

In linea con le direttive del DSA, l'Autorità per le Garanzie nelle Comunicazioni (AGCOM) ha avviato procedimenti per implementare meccanismi di verifica dell'età (age verification). Con la delibera n. 96/25/CONS, l'AGCOM ha adottato modalità tecniche e di processo per l'accertamento della maggiore età degli utenti di siti web e piattaforme che diffondono contenuti a carattere pornografico [Delibera 96/25/CONS]. Sebbene circoscritte a un ambito specifico, queste misure rappresentano un primo passo concreto verso l'implementazione di sistemi di age assurance più generalizzati, volti a proteggere i minori da contenuti potenzialmente dannosi per il loro sviluppo fisico, mentale o morale

Il consenso al trattamento dei dati è il cardine di questo sistema, con una soglia di età specifica (14 anni in Italia) che determina la capacità del minore di autodeterminarsi.

Questo approccio è rafforzato dagli obblighi di trasparenza, dalle misure di sicurezza imposte dal DSA e da un'interpretazione giurisprudenziale rigorosa che tutela l'immagine e la riservatezza del minore, riconoscendo il diritto al risarcimento in caso di violazioni.

4. Posizione dell’ADUSBEF

La tutela collettiva azionata dalla associazione dei consumatori è rivolta ad ottenere una effettiva verifica dell’età come sbarramento all’accesso alle piattaforme social, in attesa che il loro design si adegui alle nuove indicazioni europee ed alla sentenza del Tribunale della California.

I minori dai 14 anni devono essere liberi di esprimere un consenso all’accesso ed al trattamento dei propri dati personali in un contesto digitale sicuro nei contenuti e non dannoso alla salute ed allo sviluppo cognitivo, perchè L’ACCESSO AI SOCIAL DIPENDA DA UNA libera SCELTA e non da un condizionamento o da una dipendenza.

La dipendenza dai social media è caratterizzata da un uso eccessivo e compulsivo, che include desiderio irrefrenabile e sintomi simili all'astinenza, che interferiscono con la vita quotidiana, agendo il design su meccanismi che attivano la produzione di adopamina.

Per ADUSBEF è fondamentale che l’ingeneria della dipendenza venga bloccata e che le piattaforme diventino luoghi sicuri per contenuti e design, perchè un bambino non debba disperarsi se gli viene tolto il telefono.

Avv. Paola Formica – delegata Adusbef


  1. Uno studio di Save the Children mostra che i minori usano i social tra il 2021 e il 2022 il 73% dei minori (tra i 6 e i 17 anni) ha dichiarato di connettersi a Internet quotidianamente per l’accesso a piattaforme di social media, con le seguenti percentuali di accesso rispetto alle fasce di età: a)6-10 44,6% b) 11-13 78,3% c) 14-17 91,9% . Una ricerca del 2024 del MIMIT in collaborazione con l’Università Cattolica di Milano consultabile al sito web https://www.mimit.gov.it/it/notizie-stampa/consumo-dei-media-digitali-e-comportamenti-dei-minori-presentati-i-risultati-della-ricerca-promossa-dal-mimit-con-la-collaborazione-scientifica-delluniversita-cattolica-di-milanori ha evidenziato che sette ragazzi su dieci (la metà tra gli 8 e i 10 anni) usano regolarmente i social e le piattaforme streaming. L’utenza aumenta poi nel passaggio a tweens e teens. Ogni social ha il suo ruolo specifico. Instagram serve a curiosare e interagire, Tik Tok a lasciarsi andare al flusso, Facebook a leggere i commenti più che a guardare, . Whatsapp è un sistema di messaggistica istantanea, YouTube consente la visione di video ed infine utilizzo di videogiochi. .

    Nella scheda di lettura n. 309 18 giugno 2024 della proposta di legge In materia di minori e Internet, con riferimento particolare all’accesso alle piattaforme e all’uso dell’immagine dei minori AA.C. 1217, 1771, 1800 e 1863 consultabile al sito web https://documenti.camera.it/leg19/dossier/pdf/TR0109.pdf?_1730477823174 si evidenzia in base al citato studio del MIMIT che i minori sono esposti a contenuti inadatti sulle piattaforme di social media.

    L’Autorità Garante delle Comunicazioni ha evidenziato nel comunicato stampa del 23 ottobre 2024 che dall’analisi relativa ai servizi di social networking, ai primi posti sono le piattaforme riconducibili al gruppo META: Facebook con 37,2 milioni di utenti e Instagram con 33,8 milioni di visitatori che ottengono, se paragonati ai valori di giugno 2023, una crescita rispettivamente dell’2,8% e del 6,4%.

    Mentre nel precedente comunicato del 26 luglio 2024 l’analisi ai servizi di social networking, vedeva ai primi posti le piattaforme riconducibili al gruppo META: Facebook con 36,7 milioni di utenti e Instagram con 32,8milioni di visitatori che ottengono, se paragonati ai valori di marzo 2023, una crescita rispettivamente dello 0,7% e del 4,0%.↩︎

  2. Risoluzione sulla progettazione di servizi online che crea dipendenza e sulla tutela dei consumatori nel mercato unico dell'UE (2023/2043(INI))↩︎

31/03/2026

Documento n.17078

Sostieni i consumatori, sostieni ADUSBEF!

Puoi sostenere ADUSBEF anche attraverso il 5 x 1000: in fase di dichiarazione, indica il codice fiscale 03638881007

Informativa sull'uso dei Cookies

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie.OK