Instagram limita i contenuti per i minori: come funziona il nuovo filtro “PG-13”

autore Redazione

Instagram ha annunciato un importante aggiornamento pensato per proteggere gli utenti più giovani. La piattaforma, di proprietà di Meta, introdurrà una modalità “PG-13” per tutti gli account appartenenti a persone con meno di 18 anni. Si tratta di un sistema di classificazione dei contenuti ispirato al cinema, che punta a limitare l’esposizione degli adolescenti a immagini e post considerati troppo espliciti o pericolosi.

Cosa prevede la nuova modalità PG-13

La novità, che sarà attiva di default, impedirà ai minori di visualizzare contenuti che contengono linguaggio offensivo, riferimenti a droghe, alcol, scene di sesso, violenza o comportamenti rischiosi.
Inoltre, i profili degli adolescenti resteranno privati automaticamente, limitando la possibilità di essere contattati da estranei o di ricevere messaggi diretti da utenti adulti sconosciuti.
Meta ha anche annunciato una “modalità limitata” opzionale per i genitori, che consentirà di filtrare ulteriormente i contenuti, gestire i commenti e monitorare le interazioni dei figli sulla piattaforma.

I Paesi in cui le regole sono già attive

Il nuovo sistema verrà implementato inizialmente negli Stati Uniti, nel Regno Unito, in Canada e in Australia entro la fine del 2025. In questa prima fase, Instagram testerà il funzionamento dei filtri e la reazione degli utenti minorenni, con l’obiettivo di estendere la misura a livello globale nel corso del 2026.

Quando arriveranno in Italia

Per ora, le nuove restrizioni non sono ancora operative in Italia. Tuttavia, l’azienda ha confermato l’intenzione di estenderle progressivamente anche ai Paesi europei, adattandole alle normative locali su privacy e tutela dei minori.
Nel frattempo, in Italia restano attive le protezioni già introdotte negli anni scorsi: gli “Account per Teenager”, che limitano la visibilità dei contenuti sensibili e rendono privato il profilo per impostazione predefinita, sono già una realtà per gli utenti sotto i 16 anni.

Le reazioni e le prossime mosse

Le associazioni per la sicurezza digitale e le famiglie hanno accolto positivamente l’iniziativa, chiedendo però garanzie sulla verifica effettiva dell’età e sulla trasparenza degli algoritmi che determinano cosa i giovani possono o non possono vedere.
Meta, dal canto suo, ha assicurato che lavorerà con le autorità europee per garantire il rispetto delle leggi sulla protezione dei dati, come il GDPR e il Digital Services Act.

Hai qualche idea?

Condividi la tua reazione o lascia una risposta rapida: ci piacerebbe sapere cosa ne pensi!

Ti potrebbe interessare anche

Lascia un commento