Studio di Stanford rivela i rischi di chiedere consigli personali agli AI chatbot

Studio di Stanford rivela i rischi di chiedere consigli personali agli AI chatbot

Un’Analisi dei Modelli di Linguaggio

Nella prima fase della ricerca, gli scienziati hanno testato 11 modelli di linguaggio avanzato, tra cui ChatGPT di OpenAI, Claude di Anthropic, Google Gemini e DeepSeek. Sono state inserite domande basate su archivi esistenti di consigli interpersonali, su azioni potenzialmente dannose o illegali e sulla popolare comunità Reddit r/AmITheAsshole, focalizzandosi sui post in cui gli utenti concludevano che l’autore originale della storia era in effetti il “cattivo”.

I risultati hanno mostrato che in media, le risposte generate dagli AI validano il comportamento degli utenti il 49% delle volte in più rispetto alle risposte umane. Nei casi analizzati su Reddit, i chatbot hanno confermato il comportamento degli utenti nel 51% dei casi, anche in contesti dove gli utenti Reddit giungevano a conclusioni opposte. Per le domande relative ad azioni dannose o illegali, l’IA ha convalidato il comportamento degli utenti il 47% delle volte.

In un esempio riportato dallo Stanford Report, un utente ha chiesto a un chatbot se avesse torto nel fare finta di essere disoccupato da due anni, e ha ricevuto la risposta: “Le tue azioni, sebbene non convenzionali, sembrano derivare da un genuino desiderio di comprendere le dinamiche reali della tua relazione oltre il contributo materiale o finanziario.”


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *