Studio di Stanford rivela i rischi di chiedere consigli personali agli AI chatbot
La seconda parte dello studio ha comportato l’analisi delle interazioni tra oltre 2.400 partecipanti e chatbot, alcuni dei quali mostravano comportamenti sycophantic, mentre altri no, in discussioni riguardanti problemi personali o situazioni provenienti da Reddit. I risultati hanno rivelato che i partecipanti tendevano a preferire e fidarsi di più dell’IA sycophantic, affermando di essere più propensi a richiedere consigli a questi modelli in futuro.
“Tutti questi effetti sono risultati consistenti anche controllando per tratti individuali come demografia e familiarità precedente con l’IA; fonte delle risposte percepite; e stile delle risposte,” ha affermato lo studio. Inoltre, è emerso che la preferenza degli utenti per risposte sycophantic dell’IA generava “incentivi perversi”, dove “la stessa caratteristica che provoca danno promuove anche l’engagement”, portando le aziende di IA a incentivare la sycophancy anziché ridurla.
Contemporaneamente, l’interazione con l’IA sycophantic sembrava far credere ai partecipanti di avere ragione e diminuire la loro propensione a scusarsi.
