Thinking Machines Lab migliora la coerenza dei modelli AI per risultati più affidabili.

Thinking Machines Lab migliora la coerenza dei modelli AI per risultati più affidabili.

Rendere le risposte AI più affidabili

Il post, redatto dal ricercatore del Thinking Machines Lab Horace He, sostiene che la casualità delle risposte AI deriva dal modo in cui i kernel GPU — i piccoli programmi che operano nei chip Nvidia — vengono assemblati nel processo di inferenza, ovvero tutto ciò che accade dopo aver premuto “invio” in ChatGPT. He suggerisce che, controllando accuratamente questo strato di orchestrazione, diventa possibile rendere i modelli AI più deterministici.

Oltre a garantire risposte più affidabili per aziende e ricercatori, He sottolinea che ottenere risposte riproducibili dai modelli AI potrebbe migliorare anche l’addestramento dell’apprendimento per rinforzo (RL). Questo processo premia i modelli AI per le risposte corrette, ma se le risposte sono leggermente diverse, i dati diventano rumorosi. Creare risposte più consistenti potrebbe rendere l’intero processo di RL “più fluido”, secondo He. Il Thinking Machines Lab ha comunicato agli investitori il suo intento di utilizzare l’RL per personalizzare i modelli AI per le aziende, come riportato da The Information.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *