MLCommons, organizzazione no-profit che si occupa di intelligenza artificiale, nelle scorse ore ha svelato i risultati di un test di benchmark (si tratta di un parametro di riferimento per la valutazione comparata delle performance) per determinare la velocità con cui i nuovi hardware riescono ad eseguire i modelli di intelligenza artificiale. Al primo posto si è classificato un chip prodotto da Nvidia Corp, seguito da un semiconduttore prodotto da Intel Corp.
Benchmkark MLCommons: chip di Nvidia e di Intel migliori per prestazioni
Il benchmark utilizzato da MLCommons è chiamato MLPerf e si basa su un modello di linguaggio con 6 miliardi di parametri, in grado di riassumere articoli nuovi articoli della CNN. MLPerf simula infatti la parte di “inferenza” dell’elaborazione dei dati dell’AI, che alimenta il software che fanno funzionare gli strumenti di intelligenza artificiale generativa. I prodotti Nvidia presi in esame per il benchmark di inferenza si basano su 8 dei suoi chip H100. Nonostante l’azienda statunitense abbia una posizione dominante nel mercato dell’addestramento dei modelli di intelligenza artificiale, deve ancora affermarsi in quello dell’inferenza. Per quanto riguarda Intel, i suoi prodotti si basano sui chip Gaudi2, prodotti da Habana, unità acquisita nel 2019. I risultati del benchmark hanno mostrato che il chip Intel era il 10% più lento di quello prodotto da Nvidia.
Intel ha comunque dichiarato che il suo sistema è più economico rispetto a quello del concorrente, ma non ha voluto rivelare la cifra esatta. Anche Nvidia non ha voluto svelare il prezzo del suo chip, ma dovrebbe lanciare presto un aggiornamento del software in grado di raddoppiare le prestazioni rispetto a quelle mostrate nel benchmark di MLCommons. Infine, l’unità Google di Alphabet ha mostrato in anteprima le performance dell’ultima versione del suo chip personalizzato, già annunciato durante la conferenza Google Cloud Next 2023 dello scorso agosto.