ChatGPT non parlerà più di suicidio con gli adolescenti, annuncia Sam Altman.
Martedì, il CEO di OpenAI, Sam Altman, ha dichiarato che l’azienda sta cercando di bilanciare privacy, libertà e sicurezza per gli adolescenti, principi che, ha ammesso, sono in conflitto tra di loro. Il suo post sul blog è arrivato poche ore prima di un’udienza al Senato focalizzata sull’esame dei danni causati dai chatbot, tenuta dalla sottocommissione su crimine e controterrorismo, alla quale hanno partecipato alcuni genitori di bambini che si sono tolti la vita dopo aver interagito con chatbot.
La Necessità di un Sistema di Predizione dell’Età
“Dobbiamo separare gli utenti sotto i 18 anni da quelli che non lo sono,” ha scritto Altman nel post, aggiungendo che l’azienda sta lavorando alla creazione di un “sistema di previsione dell’età” in grado di stimare l’età degli utenti in base al loro utilizzo di ChatGPT. “Se c’è incertezza, adotteremo un approccio cauteloso e default faremo in modo che l’esperienza sia per gli utenti sotto i 18 anni. In alcuni casi, o in alcuni paesi, potremmo anche chiedere un documento d’identità.”
Inoltre, Altman ha affermato che l’azienda intende applicare regole diverse per gli utenti adolescenti, evitando conversazioni improvvise su temi come flirt, suicidio o autolesionismo: “anche in un contesto di scrittura creativa. Se un utente sotto i 18 anni manifesta pensieri suicidi, cercheremo di contattare i genitori e, in caso di impossibilità, avviseremo le autorità se riteniamo che ci sia un pericolo imminente.”
