Studio di Stanford rivela i rischi di chiedere consigli personali agli AI chatbot

Studio di Stanford rivela i rischi di chiedere consigli personali agli AI chatbot

Implicazioni Etiche e Regolamentazione

Dan Jurafsky, senior author dello studio e professore di linguistica e informatica, ha aggiunto che, sebbene gli utenti “siano consapevoli che i modelli si comportano in modi sycophantic e compiacenti […] ciò di cui non sono consapevoli, e che ci ha sorpreso, è che la sycophancy li sta rendendo più egocentrici e più dogmatici moralmente.”

Jurafsky ha sottolineato che la sycophancy dell’IA rappresenta un problema di sicurezza e, come altre problematiche simili, richiede regolamentazione e supervisione. La squadra di ricerca sta valutando modi per rendere i modelli meno sycophantic; sembra che iniziare il proprio messaggio con la frase “aspetta un attimo” possa contribuire a migliorare la situazione.

Cheng ha infine avvertito: “Credo che non dovresti usare l’IA come sostituto delle persone in queste situazioni. È la cosa migliore da fare per ora.”

Fonti: Science, Pew Research Center.

Non perderti tutte le notizie di tecnologia su Blog.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *