Intel ha appena annunciato il suo contributo al nuovo PyTorch 2.5, espandendo il supporto per le GPU Intel. PyTorch 2.5 include ora una compatibilità più ampia con varie GPU Intel. Ciò include la grafica discreta Intel Arc, i processori Intel Core Ultra con grafica Intel Arc integrata e la serie Intel Data Center GPU Max. Con questo supporto esteso, gli sviluppatori che desiderano perfezionare, eseguire inferenze e sperimentare modelli PyTorch su PC Intel Core Ultra AI possono installare direttamente PyTorch utilizzando le release binarie di anteprima e nightly per Windows, Linux e Windows Subsystem per Linux. Ciò consente un utilizzo più semplice dei sistemi basati su GPU Intel nello sviluppo AI basato su PyTorch.
PyTorch 2.5: supporto hardware migliorato e le altre novità
Le principali contribuzioni di Intel a PyTorch 2.5 includono l'ampliamento del supporto hardware. Intel ha implementato i kernel SYCL per migliorare la copertura e l'esecuzione degli operatori Aten sulle GPU Intel, aumentando le prestazioni in modalità Eager PyTorch. Inoltre, Intel ha potenziato il backend per GPU Intel all'interno di torch.compile. Ciò ha migliorato le prestazioni sia nell'inferenza che nell'addestramento su diversi carichi di lavoro di deep learning. Intel ha inoltre evidenziato che PyTorch 2.5 include miglioramenti e nuove funzionalità per le più recenti CPU Intel per data center. Il tipo di dati FP16 è ora supportato e ottimizzato tramite Intel Advanced Matrix Extensions sia per la modalità Eager che per TorchInductor. Ciò ha migliorato le capacità di inferenza sulle più recenti CPU Intel per data center, inclusi i nuovi processori Intel Xeon 6.
Inoltre, il backend C++ di TorchInductor è ora disponibile su Windows, migliorando l'esperienza di sviluppo per gli sviluppatori di intelligenza artificiale che utilizzano Windows. Il contributo di Intel a PyTorch dimostra il suo impegno nel promuovere lo sviluppo dell’AI e nel fornire agli sviluppatori strumenti potenti e hardware ottimizzato. Oltre ai contributi di Intel, la versione PyTorch 2.5 include un nuovo backend CuDNN per SDPA, migliorando la velocità su H100 e GPU più recenti. Inoltre, la compilazione regionale all'interno di torch.compile riduce i tempi di avvio a freddo consentendo agli utenti di compilare un nn.Module ripetuto una volta. Ciò elimina le ricompilazioni. Per saperne di più è possibile consultare il changelog completo sulla pagina dedicata di GitHub.