Gemini 3 non credeva fosse già il 2025, scatenando situazioni esilaranti.

Gemini 3 non credeva fosse già il 2025, scatenando situazioni esilaranti.

Le risposte su X sono state altrettanto divertenti, con alcuni utenti che hanno condiviso le proprie esperienze di conflitto con gli LLM su fatti (come chi è l’attuale presidente). Un utente ha scritto: “Quando il sistema dei prompt + strumenti mancanti spingono un modello a entrare in modalità detective, è come vedere un’AI improvvisare la propria versione della realtà.”

Oltre all’umorismo, c’è un messaggio sottostante. Karpathy ha osservato: “È in questi momenti non intenzionali che, chiaramente, sei off the hiking trails e in qualche modo nella giungla della generalizzazione, dove puoi avere la miglior sensazione del ‘model smell’.”

Per spiegare meglio: Karpathy sottolinea che quando l’AI è nella sua versione del wilderness, ottieni un’idea della sua personalità e forse anche dei suoi tratti negativi. È un rimando al “code smell”, quella piccola “profumo” metaforico che un sviluppatore percepisce quando qualcosa sembra strano nel codice software, ma non è chiaro cosa sia. Allenato su contenuti creati dagli esseri umani, non sorprende che Gemini 3 si sia bloccata, abbia discusso e persino immaginato di vedere prove che convalidassero il suo punto di vista. Ha mostrato il suo “model smell”.

Non perderti tutte le notizie di tecnologia su Blog.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *