All'inizio di quest'anno, OpenAI ha annunciato GPT-4o, il suo modello multimodale più avanzato. Com’è noto, si tratta di un modello più veloce ed economico del GPT-4 Turbo e offre anche capacità di visione più potenti. Il mese scorso, l’azienda ha annunciato il suo modello AI conveniente denominato GPT-4o mini. Nelle scorse ore, OpenAI ha annunciato la possibilità di effettuare il fine-tuning di GPT-4o e GPT-4o mini. In questo modo, gli sviluppatori saranno in grado di addestrare i modelli GPT-4o e GPT-4o mini utilizzando set di dati personalizzati. Ciò per ottenere prestazioni più elevate a un costo inferiore e per casi d'uso specifici.
OpenAI: funzionamento e prezzi del fine-tuning di GPT-4
Il fine-tuning consente agli sviluppatori di modificare il tono delle risposte del modello o persino addestrare il modello a seguire istruzioni complesse specifiche del dominio. Tale funzionalità è già disponibile per tutti gli sviluppatori su tutti i livelli di utilizzo a pagamento. OpenAI offre 1 milione di token di formazione al giorno gratuitamente per ogni organizzazione per il fine-tuning di GPT-4o e 2 milioni di token di formazione al giorno gratuiti per GPT-4o mini. Questa offerta sarà disponibile fino al 23 settembre. La formazione per il fine tuning di GPT-4o costerà 25 dollari per milione di token e l'inferenza costerà 3,75 dollari per milione di token di input e 15 dollari per milione di token di output. Per iniziare, basta accedere alla dashboard di fine-tuning sul portale della piattaforma OpenAI, cliccare su Crea e selezionare gpt-4o-2024-08-06 o gpt-4o-mini-2024-07-18 dal menu a discesa del modello base.
OpenAI ha inoltre evidenziato che alcuni partner selezionati che hanno testato il fine-tuning del modello GPT-4o hanno ottenuto ottimi risultati. Vi è ad esempio Distyl, il cui fine-tuning di GPT-4o ha raggiunto un'accuratezza di esecuzione del 71,83%. Inoltre, si è distinto in attività come la riformulazione delle query, l'autocorrezione, con prestazioni particolarmente elevate nella generazione di SQL. Dall’altro lato, Genie (sempre GPT-4o) ha ottenuto un punteggio SOTA del 43,8% nel nuovo benchmark SWE-bench Verified. Genie detiene anche un punteggio SOTA del 30,08% su SWE-bench Full. Per saperne di più sul fine-tuning dei modelli di OpenAI, è possibile consultare la pagina ufficiale sul sito dell’azienda.