A due anni dall’entrata in applicazione del regolamento sui servizi digitali, l’Unione europea traccia un primo bilancio: quasi 50 milioni di decisioni di moderazione dei contenuti o degli account sono state annullate dalle piattaforme online, a seguito delle contestazioni presentate dagli utenti.
Un dato che fotografa l’impatto concreto del Digital Services Act (DSA) sul sistema delle tutele digitali. Delle 165 milioni di decisioni di moderazione impugnate attraverso i meccanismi interni predisposti dalle piattaforme, il 30% è stato rivisto e ribaltato. Si tratta di uno strumento senza precedenti a livello globale, che ha riconosciuto agli utenti europei un vero e proprio diritto di contestazione contro sospensioni, rimozioni di contenuti o limitazioni della visibilità (shadow ban).
Moderazione: prevalgono i termini di servizio
Un altro elemento rilevante riguarda la natura delle decisioni adottate. Nel primo semestre del 2025, il 99% delle decisioni di moderazione dei contenuti è stato assunto per far rispettare i termini e le condizioni delle piattaforme, e non per rimuovere contenuti qualificati come illegali ai sensi del diritto dell’UE o nazionale.
Il dato apre una riflessione significativa sul rapporto tra regolazione pubblica e regole private delle piattaforme, nonché sul potere discrezionale esercitato dagli operatori digitali nella gestione degli spazi online.
Risoluzione extragiudiziale: il 52% delle decisioni annullate
Accanto ai meccanismi interni, il DSA ha introdotto strumenti di risoluzione extragiudiziale delle controversie. Nel primo semestre del 2025, gli organismi indipendenti hanno esaminato oltre 1.800 casi relativi a contenuti su Facebook, Instagram e TikTok nell’UE.
Nel 52% dei procedimenti conclusi, le decisioni delle piattaforme sono state annullate, con conseguente ripristino di contenuti e account. Una soluzione che si è dimostrata più rapida ed economicamente sostenibile rispetto al ricorso all’autorità giudiziaria.
Minori, merci illegali e trasparenza algoritmica
Il regolamento ha inoltre introdotto cambiamenti strutturali in materia di sicurezza e benessere digitale. Dal 2024 è vietata nell’UE la pubblicità mirata ai minori sulle piattaforme online. I marketplace digitali sono tenuti a rafforzare la tracciabilità dei venditori, contrastare la diffusione di merci illegali e informare tempestivamente i consumatori che abbiano acquistato prodotti non conformi, offrendo adeguate opzioni di rimborso o risarcimento.
Un ulteriore profilo innovativo riguarda l’accesso ai dati: ricercatori e organizzazioni della società civile dispongono oggi di strumenti senza precedenti per analizzare i processi decisionali delle piattaforme e le pratiche di moderazione, rafforzando così i meccanismi di accountability.
Un nuovo equilibrio tra diritti e responsabilità
A due anni dall’entrata in vigore, il Digital Services Act si conferma come uno dei pilastri della nuova governance europea del digitale. Più diritti per gli utenti, maggiore trasparenza sugli algoritmi e responsabilità rafforzata per le piattaforme: un equilibrio ancora in evoluzione, ma già capace di produrre effetti tangibili nell’ecosistema online europeo.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE
Cassazionisti, AIGA chiede una proroga per l’iscrizione all’albo speciale
Una proposta di emendamento al decreto “Milleproroghe” volta a prorogare, anche per l’anno 2025, la “vecchia” modalità di iscrizione all’albo speciale per il patrocinio davanti…
Pensionati professionisti: stop al contributo di solidarietà
Il contributo di solidarietà dei professionisti in pensione è incompatibile con il principio del pro-rata Per la Cassazione (sentenza n. 23363/ 2021), il contributo di…
Esame avvocati 2022: tutte le regole
Per l’esame di abilitazione alla professione forense confermati doppio orale e Green Pass Vale anche per il 2022 la regola secondo la quale l’esame di…

