Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

DeepSeek V3 rilascia il suo nuovo modello gratuitamente

Il modello di linguaggio DeepSeek V3 è eseguibile su hardware consumer ed ha una velocità di elaborazione di 20 token al secondo.
DeepSeek V3 rilascia il suo nuovo modello gratuitamente
Il modello di linguaggio DeepSeek V3 è eseguibile su hardware consumer ed ha una velocità di elaborazione di 20 token al secondo.
Link copiato negli appunti

L'azienda cinese di intelligenza artificiale DeepSeek ha recentemente rilasciato il suo nuovo modello di linguaggio di grandi dimensioni, DeepSeek-V3-0324. Il modello da 641 gigabyte è stato rilasciato sulla piattaforma di intelligenza artificiale Hugging Face. Il modello è unico nella sua licenza MIT, che consente un uso commerciale gratuito. I primi benchmark indicano che DeepSeek V3 è in grado di funzionare su hardware di livello consumer, come Mac Studio di Apple con il chip M3 Ultra. Lo scienziato AI Awni Hannun ha riferito che era possibile raggiungere una velocità di elaborazione di oltre 20 token al secondo utilizzando questa configurazione. Questa capacità di eseguire un modello di linguaggio di grandi dimensioni su hardware locale disponibile in commercio è l'esatto opposto del modo convenzionale di utilizzare un'enorme infrastruttura di data center per supportare modelli di intelligenza artificiale di fascia alta.

DeepSeek V3: nuovo modello capace di superare Claude Sonnet 3.5

Secondo l’azienda cinese, le prime prove hanno mostrato un miglioramento significativo rispetto alle versioni precedenti. Il modello è stato rigorosamente testato da stakeholder interni e ha funzionato in modo eccellente. Secondo i test è stato in grado di superare gli altri modelli concorrenti, tra cui Claude Sonnet 3.5 di Anthropic su attività non di ragionamento. Tuttavia, a differenza dei modelli di abbonamento in stile Sonnet, DeepSeek V3 è gratuito da scaricare e utilizzare. Tecnicamente, il modello è un'architettura di mixture-of-experts (MoE).

Il modello utilizza selettivamente circa 37 miliardi dei suoi 685 miliardi di parametri per attività, incoraggiando l'efficienza riducendo le esigenze computazionali mantenendo le prestazioni. Il modello impiega anche le tecnologie Multi-Head Latent Attention (MLA) e Multi-Token Prediction (MTP). Queste contribuiscono a migliorare la conservazione del contesto e a velocità di output più elevate. È possibile accedere al modello tramite Hugging Face, l'API e l'interfaccia chat di OpenRouter e la piattaforma chat di DeepSeek. Infine, l’accesso al modello è garantito anche dall’inference provider Hyperbolic Labs.

Ti consigliamo anche