Incentivi errati causano le illusioni dell’IA? Scopri come e perché accade.
Le Allucinazioni nei Modelli di Linguaggio: Il Dilemma di OpenAI
A un nuovo studio di OpenAI si pone una domanda cruciale: perché i modelli di linguaggio di grandi dimensioni, come GPT-5 e chatbot come ChatGPT, continuano a generare “allucinazioni” e c’è modo di ridurre questi fenomeni? Nel suo blog, OpenAI descrive le allucinazioni come “affermazioni plausibili ma false generate dai modelli di linguaggio” e riconosce che, nonostante i progressi, rimangono “una sfida fondamentale” per tutti i modelli di linguaggio di grandi dimensioni, una questione che non potrà mai essere completamente risolta.
Per dimostrare questo punto, i ricercatori raccontano un aneddoto: quando hanno chiesto a “un chatbot ampiamente utilizzato” il titolo della tesi di dottorato di Adam Tauman Kalai, hanno ricevuto tre risposte diverse, tutte sbagliate. Kalai è uno degli autori dello studio. Analogamente, quando hanno chiesto la data di nascita del ricercatore, hanno ottenuto tre date diverse, tutte errate.
