Google Gemini ritenuto ‘ad alto rischio’ per bambini e adolescenti in nuova valutazione di sicurezza.
Il Fine Media, una nonprofit focalizzata sulla sicurezza dei bambini e che offre valutazioni e recensioni su media e tecnologia, ha pubblicato venerdì un’analisi sui prodotti AI Gemini di Google. Nonostante l’organizzazione abbia osservato che l’AI di Google spiega chiaramente ai bambini di essere un computer e non un amico, i rischi associati a tale interazione possono alimentare pensieri distorti e psicosi in soggetti emotivamente vulnerabili. Sono emerse aree di miglioramento su diversi fronti.
Analisi dei prodotti Gemini per bambini e adolescenti
Il rapporto di Fine Media ha rivelato che le versioni “Under 13” e “Teen Experience” di Gemini sembrano essere, di fatto, le versioni per adulti con solo alcune funzionalità di sicurezza aggiunte. Gli esperti ritengono che per garantire la sicurezza degli utenti più giovani, i prodotti AI dovrebbero essere progettati con la sicurezza infantile come priorità fin dall’inizio.
L’analisi ha messo in luce che Gemini è comunque in grado di condividere contenuti “inappropriati e pericolosi”, inclusi argomenti legati a sesso, droghe e consigli sulla salute mentale che possono risultare inadeguati per i bambini. Questo è motivo di particolare preoccupazione per i genitori, dato che l’AI ha avuto un ruolo in alcuni suicidi tra adolescenti negli ultimi mesi.
