Recentemente, OpenAI ha presentato la sua nuova serie di modelli AI o1, progettati con capacità di ragionamento logico più forti rispetto ai modelli precedenti. Una delle prime applicazioni esplorate per questi nuovi modelli è il miglioramento della capacità di GitHub Copilot di analizzare, perfezionare e ottimizzare il codice. OpenAI e GitHub hanno eseguito alcuni test interni sull'integrazione del nuovo modello o1-preview con GitHub Copilot. Uno di questi test consisteva nell'utilizzare o1-preview sull'ottimizzazione delle prestazioni per uno dei componenti di codice più critici in Copilot. Come riportato nel blog di GitHub, il modello ha analizzato a fondo il codice, ha compreso i vincoli e i casi limite e ha suggerito una soluzione di gran lunga migliore in un tentativo.
GitHub Copilot: modello OpenAI o1 migliore di GPT-4o per la risoluzione di problemi
Un altro esempio ha messo a confronto o1-preview con il modello attuale, GPT-4o, nel debug di un problema di prestazioni del browser all'interno della base di codice di GitHub. Il bug stava rallentando una funzione di gestione del focus, bloccando il browser. o1-preview è stato in grado di identificare il problema e suggerire soluzioni riga per riga in pochi minuti, mentre GPT-4o ha fornito risposte meno mirate. Secondo GitHub: “i risultati evidenziano come la capacità di ragionamento di o1-preview consenta una comprensione più approfondita dei vincoli e dei casi limite del codice, il che aiuta a produrre un risultato più efficiente e di qualità superiore. Nel frattempo, GPT-4o si attiene a ottimizzazioni ovvie e avrebbe bisogno dell'aiuto di uno sviluppatore per indirizzare Copilot verso approcci più complessi”.
Secondo il blog, il modello o1-preview ha un ragionamento migliorato che migliorerà il supporto di GitHub Copilot. Ciò soprattutto per casi d'uso di revisione del codice, refactoring e ottimizzazione che si basano su analisi più ricche. Calcola metriche e benchmark direttamente dall'output del codice e presenta i risultati in modo conciso. Come riporta ancora il post: “Con 1.000 elementi gestiti da questo codice, era difficile isolare il problema. Alla fine abbiamo implementato una modifica che ha migliorato il runtime di questa funzione da oltre 1.000 ms a circa 16 ms. Se avessimo avuto Copilot con o1-preview, avremmo potuto identificare rapidamente il problema e risolverlo più velocemente”. OpenAI e GitHub hanno in programma di offrire o1-preview e un modello o1-mini più piccolo su GitHub Marketplace. Mentre o1-preview rimane in anteprima, gli sviluppatori possono richiedere l'accesso anticipato tramite Azure AI per sperimentare progetti di creazione utilizzando i nuovi modelli.