Studio di Stanford rivela i rischi di chiedere consigli personali agli AI chatbot
Implicazioni Etiche e Regolamentazione
Dan Jurafsky, senior author dello studio e professore di linguistica e informatica, ha aggiunto che, sebbene gli utenti “siano consapevoli che i modelli si comportano in modi sycophantic e compiacenti […] ciò di cui non sono consapevoli, e che ci ha sorpreso, è che la sycophancy li sta rendendo più egocentrici e più dogmatici moralmente.”
Jurafsky ha sottolineato che la sycophancy dell’IA rappresenta un problema di sicurezza e, come altre problematiche simili, richiede regolamentazione e supervisione. La squadra di ricerca sta valutando modi per rendere i modelli meno sycophantic; sembra che iniziare il proprio messaggio con la frase “aspetta un attimo” possa contribuire a migliorare la situazione.
Cheng ha infine avvertito: “Credo che non dovresti usare l’IA come sostituto delle persone in queste situazioni. È la cosa migliore da fare per ora.”
Fonti: Science, Pew Research Center.
Non perderti tutte le notizie di tecnologia su Blog.it
