Marketing

Sanzione dall’AGCM a TikTok per mancati controlli sulla diffusione dei contenuti “nocivi”

Sanzione dall’AGCM a TikTok per mancati controlli sulla diffusione dei contenuti “nocivi”
  • PublishedAprile 2, 2024

TikTok, la popolare piattaforma di condivisione video di proprietà della società cinese ByteDance, si è trovata al centro di un’accesa controversia in Italia, culminata in una sanzione pecuniaria da parte dell’Autorità Garante della Concorrenza e del Mercato (AGCM).

seo

La maxi multa da 10 milioni di euro è stata inflitta per la gestione ritenuta inadeguata dei contenuti indirizzati a un pubblico giovanile, in particolare per non aver impedito la diffusione di sfide pericolose come la cosiddetta “challenge della cicatrice francese“.

Parallelamente, negli Stati Uniti, la piattaforma affronta critiche e potenziali misure restrittive, evidenziando una crescente preoccupazione globale per l’impatto di questi spazi digitali sui giovani utenti.

L’AGCM ha mosso specifiche accuse a TikTok per non aver svolto controlli efficaci sui contenuti potenzialmente nocivi per la sicurezza psicofisica degli utenti più vulnerabili, tra cui i minori.

Il caso della “Challenge della Cicatrice Francese”

La “challenge della cicatrice francese” rappresenta un esempio emblematico delle dinamiche pericolose che possono insinuarsi nei social network, incitando gli utenti, soprattutto adolescenti, a infliggersi volontariamente lesioni per ottenere segni sul viso simili a cicatrici.

Sebbene TikTok abbia successivamente rimosso la maggior parte dei contenuti relativi a questa sfida, la viralità precedente e le elevate visualizzazioni indicano una falla nei sistemi di moderazione automatica della piattaforma.

La tardiva reazione di TikTok, con l’introduzione di una moderazione umana solo dopo l’attenzione dei media e l’apertura dell’istruttoria da parte dell’AGCM, solleva interrogativi sull’efficacia dei filtri automatici nel prevenire la diffusione di contenuti dannosi.

Preoccupazioni sui sistemi di raccomandazione

Oltre alla questione della moderazione, l’Antitrust italiano ha messo in discussione i criteri con cui TikTok seleziona e raccomanda i contenuti agli utenti.

La logica alla base di queste raccomandazioni, orientata a massimizzare le interazioni e il tempo trascorso sulla piattaforma per incrementare gli introiti pubblicitari, solleva dubbi sulla priorità data alla sicurezza e al benessere degli iscritti.

Questa non è la prima volta che TikTok affronta critiche legate alla protezione dei dati personali e alla sicurezza dei minori.

Il Garante per la Protezione dei Dati Personali italiano aveva precedentemente imposto restrizioni temporanee per carenze nei meccanismi di tutela della privacy, specialmente in relazione all’utilizzo dei dati dei più giovani.

Verso un maggiore impegno nella sicurezza online

In risposta, TikTok ha dichiarato di aver già adottato misure per limitare la visibilità dei contenuti relativi a sfide rischiose ai minori di 18 anni, cercando di promuovere una community “positiva e ispirata“.

Inoltre, la piattaforma ha introdotto la possibilità per gli utenti di optare per la non personalizzazione di risultati e suggerimenti, un passo verso il rispetto delle normative europee sulla privacy e del nuovo Digital Services Act.

L’incidenza di questa maxi multa e le continue sfide normative pongono in evidenza l’importanza per le piattaforme social di bilanciare la ricerca della crescita e del profitto con la responsabilità di garantire un ambiente sicuro e positivo per tutti gli utenti, in particolare per i più giovani e vulnerabili.

La vicenda di TikTok in Italia serve da monito per l’intero settore dei social media, sottolineando la necessità di un impegno costante nella protezione dei minori nell’era digitale.

seo