Incentivi errati causano le illusioni dell’IA? Scopri come e perché accade.

Incentivi errati causano le illusioni dell’IA? Scopri come e perché accade.

Incentivi errati causano le illusioni dell’IA? Scopri come e perché accade.

Le Allucinazioni nei Modelli di Linguaggio: Il Dilemma di OpenAI

A un nuovo studio di OpenAI si pone una domanda cruciale: perché i modelli di linguaggio di grandi dimensioni, come GPT-5 e chatbot come ChatGPT, continuano a generare “allucinazioni” e c’è modo di ridurre questi fenomeni? Nel suo blog, OpenAI descrive le allucinazioni come “affermazioni plausibili ma false generate dai modelli di linguaggio” e riconosce che, nonostante i progressi, rimangono “una sfida fondamentale” per tutti i modelli di linguaggio di grandi dimensioni, una questione che non potrà mai essere completamente risolta.

Per dimostrare questo punto, i ricercatori raccontano un aneddoto: quando hanno chiesto a “un chatbot ampiamente utilizzato” il titolo della tesi di dottorato di Adam Tauman Kalai, hanno ricevuto tre risposte diverse, tutte sbagliate. Kalai è uno degli autori dello studio. Analogamente, quando hanno chiesto la data di nascita del ricercatore, hanno ottenuto tre date diverse, tutte errate.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *