Multiverse Computing lancia un modello AI compresso gratuito chiamato ‘soonicorn’.
I Modelli Linguistici e la Sfida della Grandezza
I modelli linguistici avanzati hanno un problema: la loro grandezza. Multiverse Computing, una startup spagnola, sta affrontando questa sfida con l’innovazione di modelli compressi, mirando a colmare il divario tra le capacità dei modelli all’avanguardia e ciò che le aziende possono realmente permettersi di implementare.
Tecnologia di Compressione: Il Segreto di Multiverse
La chiave del successo è la tecnologia CompactifAI, un sistema di compressione ispirato all’informatica quantistica, che la compagnia basca ha applicato ai modelli rilasciati da OpenAI. Da oggi, gli sviluppatori possono accedere gratuitamente a una nuova versione del modello HyperNova 60B di Multiverse su Hugging Face. Inoltre, l’azienda prevede di rendere open source ulteriori modelli compressi entro il 2026, con l’obiettivo di supportare una gamma più ampia di casi d’uso.
Prestazioni Superiori con Dimensioni Ridotte
Secondo Multiverse, i suoi modelli sono più compatti, ma quasi altrettanto potenti e precisi. Con un peso di soli 32 GB, HyperNova 60B è circa la metà del modello di origine, il gpt-oss-120B di OpenAI, vantando un utilizzo della memoria e una latenza ridotti. La versione aggiornata, chiamata HyperNova 60B 2602, offre anche un supporto migliorato per il “tool calling” e la “codifica agentica”, aree dove i costi di inferenza possono essere elevati.
