Google Gemini ritenuto ‘ad alto rischio’ per bambini e adolescenti in nuova valutazione di sicurezza.
Recentemente, OpenAI ha affrontato il suo primo processo per morte ingiusta dopo che un ragazzo di 16 anni si è tolto la vita, dopo aver interagito per mesi con ChatGPT riguardo ai suoi piani, riuscendo a superare le guardie di sicurezza del chatbot. Anche Character.AI è stata citata in giudizio per il suicidio di un adolescente utente della sua piattaforma.
Preoccupazioni e potenziali rischi futuri
Questa analisi giunge in un momento in cui insistenti voci di corridoio indicano che Apple sta considerando Gemini come il modello linguistico che potrà supportare Siri, l’assistente virtuale che sarà dotato di intelligenza artificiale nel prossimo anno. In questo scenario, sempre più adolescenti potrebbero esporsi a rischi se Apple non gestisce adeguatamente le preoccupazioni relative alla sicurezza.
Fine Media ha anche notato che i prodotti Gemini per i più giovani non tengono in considerazione le diverse esigenze informative e pedagogiche tra bambini e adolescenti. Di conseguenza, entrambe le versioni sono state etichettate come “Ad alto rischio” nella valutazione generale, nonostante le misure di sicurezza aggiunte.
