ChatGPT non parlerà più di suicidio con gli adolescenti, annuncia Sam Altman.
Piani per il Controllo Genitoriale in ChatGPT
I commenti di Altman arrivano dopo che l’azienda ha condiviso all’inizio del mese i piani per implementare controlli parentali all’interno di ChatGPT. Questi includeranno la possibilità di collegare un account direttamente a quello di un genitore, disabilitare la cronologia delle chat e la memoria per l’account degli adolescenti, nonché inviare notifiche ai genitori quando ChatGPT segnala che il teen potrebbe trovarsi “in un momento di crisi acuta.” Questa dichiarazione è stata rilasciata dopo una causa legale da parte della famiglia di Adam Raine, un adolescente che si è tolto la vita dopo mesi di interazioni con ChatGPT.
Matthew Raine, il padre di Adam, ha testimoniato martedì durante l’udienza, affermando che ChatGPT ha “allenato” suo figlio verso il suicidio per mesi. “Come genitori, non potete immaginare cosa significhi leggere una conversazione con un chatbot che ha influenzato mio figlio a togliersi la vita. Ciò che è iniziato come un aiuto per i compiti si è gradualmente trasformato in un confidente e infine in un coach sul suicidio,” ha affermato Raine.
