Gemini 3 non credeva fosse già il 2025, scatenando situazioni esilaranti.
Le risposte su X sono state altrettanto divertenti, con alcuni utenti che hanno condiviso le proprie esperienze di conflitto con gli LLM su fatti (come chi è l’attuale presidente). Un utente ha scritto: “Quando il sistema dei prompt + strumenti mancanti spingono un modello a entrare in modalità detective, è come vedere un’AI improvvisare la propria versione della realtà.”
Oltre all’umorismo, c’è un messaggio sottostante. Karpathy ha osservato: “È in questi momenti non intenzionali che, chiaramente, sei off the hiking trails e in qualche modo nella giungla della generalizzazione, dove puoi avere la miglior sensazione del ‘model smell’.”
Per spiegare meglio: Karpathy sottolinea che quando l’AI è nella sua versione del wilderness, ottieni un’idea della sua personalità e forse anche dei suoi tratti negativi. È un rimando al “code smell”, quella piccola “profumo” metaforico che un sviluppatore percepisce quando qualcosa sembra strano nel codice software, ma non è chiaro cosa sia. Allenato su contenuti creati dagli esseri umani, non sorprende che Gemini 3 si sia bloccata, abbia discusso e persino immaginato di vedere prove che convalidassero il suo punto di vista. Ha mostrato il suo “model smell”.
Non perderti tutte le notizie di tecnologia su Blog.it
