Groq, sfidante dei chip Nvidia, raggiunge una valutazione di 6,9 miliardi di dollari.
I prodotti di Groq sono destinati a sviluppatori ed aziende e possono essere utilizzati come servizio cloud o come cluster hardware on-premises. Il hardware on-premises consiste in un server rack dotato di nodi integrati hardware/software. Entrambe le soluzioni, sia cloud che on-premises, supportano versioni aperte di modelli popolari provenienti da Meta, DeepSeek, Qwen, Mistral, Google e OpenAI. Secondo Groq, le proprie offerte mantengono, in alcuni casi, migliorano le prestazioni AI a costi significativamente inferiori rispetto alle alternative attuali.
Jonathan Ross, fondatore di Groq, porta con sé un’esperienza particolarmente rilevante. Prima di fondare la startup, Ross ha lavorato presso Google sviluppando il chip Tensor Processing Unit, progettato per compiti di machine learning. Il TPU è stato presentato nel 2016, lo stesso anno in cui Groq è entrata nel mercato. I TPU continuano a sostenere i servizi AI di Google Cloud, dimostrando un percorso di successo e innovazione costante.
