Instagram ritarda l’implementazione di funzionalità di sicurezza per adolescenti, emerge da un documento legale.

Instagram ritarda l’implementazione di funzionalità di sicurezza per adolescenti, emerge da un documento legale.

Instagram ritarda l’implementazione di funzionalità di sicurezza per adolescenti, emerge da un documento legale.

Meta e la Controversia sulla Sicurezza dei Giovani

I pubblici ministeri di una causa legale stanno indagando sull’additività e i potenziali danni delle app dei social media, come Instagram. Si sono chiesti perché Meta abbia impiegato così tanto tempo a implementare strumenti di sicurezza di base, come il filtro per la nudità nelle messaggi privati inviati agli adolescenti. Solo nel aprile 2024, Meta ha presentato una funzionalità per sfocare automaticamente le immagini esplicite negli DM di Instagram, un problema di cui l’azienda era a conoscenza quasi sei anni prima.

Una recente deposta in un processo federale ha rivelato che Adam Mosseri, responsabile di Instagram, è stato interrogato riguardo a una catena di email risalente ad agosto 2018. In questo scambio con Guy Rosen, VP e Chief Information Security Officer di Meta, Mosseri ha affermato che “cose orribili” potrebbero avvenire tramite messaggi privati su Instagram. L’avvocato dei querelanti ha citato esempi come le immagini di nudità e Mosseri ha confermato che la questione era seria.

Meta è stata contattata per un commento.


Critiche alla Vigilanza di Meta

Nonostante le domande, Mosseri ha respinto l’idea che l’azienda dovesse informare i genitori riguardo al fatto che il sistema di messaggistica non fosse monitorato oltre alla rimozione dei contenuti di sfruttamento sessuale infantile (CSAM). “È chiaro che in qualsiasi app di messaggistica, sia Instagram che altre, è possibile inviare contenuti problematici,” ha detto Mosseri, sottolineando come Meta stia cercando di mantenere un equilibrio tra la privacy degli utenti e la sicurezza.

La deposizione ha anche rivelato dati preoccupanti sull’attività dannosa su Instagram. Circa il 19,2% degli intervistati tra i 13 e i 15 anni ha affermato di aver visto nudità o immagini sessualmente esplicite su Instagram che non volevano vedere. Inoltre, l’8,4% dei ragazzi di questa fascia d’età ha dichiarato di aver visto qualcuno farsi del male o minacciare di farlo su Instagram nell’ultima settimana di utilizzo dell’app.

Sebbene l’introduzione di un filtro per la nudità rappresenti solo uno dei vari aggiornamenti apportati negli ultimi anni per proteggere gli adolescenti, la questione centrale per i pubblici ministeri è stata il ritardo dell’azienda nell’implementare tali misure, piuttosto che la sicurezza attuale dell’app.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *