Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

GitHub: Copilot Chat rilasciato ufficialmente per tutti gli utenti

L’assistente Copilot Chat è ora disponibile per gli utenti GitHub che desiderano sfruttar le potenzialità dell’AI per la creazione di codice.
GitHub: Copilot Chat rilasciato ufficialmente per tutti gli utenti
L’assistente Copilot Chat è ora disponibile per gli utenti GitHub che desiderano sfruttar le potenzialità dell’AI per la creazione di codice.
Link copiato negli appunti

Lo scorso luglio, GitHub ha lanciato Copilot Chat (un chatbot incentrato sulla programmazione simile a ChatGPT) e accessibile soltanto alle organizzazioni iscritte a Copilot for Business. A settembre Copilot Chat è arrivata ai singoli clienti Copilot, in versione beta e sotto abbonamento (10 dollari al mese). Nelle scorse ore però, GitHub ha annunciato però la disponibilità del suo chatbot a livello globale. L’assistente AI di GitHub è infatti disponibile nella barra laterale degli IDE di Microsoft, Visual Studio Code e Visual Studio, ma fa parte anche dei livelli a pagamento Business, Enterprise e Individual. Inoltre, Copilot Chat è gratuito per insegnanti, studenti e gestori verificati di determinati progetti open source.

GitHub: GPT-4 il migliore modello per Copilot Chat

Dall’ultima beta pubblicata ad oggi sono stati veramente pochi i cambiamenti di Copilot Chat. Il chatbot è infatti ancora alimentato da GPT-4, l’ultimo modello di intelligenza artificiale generativa di OpenAI, ottimizzato appositamente per gli scenari di sviluppo. Gli sviluppatori possono utilizzare Copilot Chat in linguaggio naturale per ottenere indicazioni in tempo reale. Ad esempio, questi possono chiedere all’assistente di spiegare concetti, rilevare vulnerabilità o scrivere unit test. Come tutti i modelli AI, GPT-4, è stato addestrato su dati disponibili al pubblico, alcuni dei quali sono protetti da copyright o con una licenza restrittiva. I fornitori, tra cui GitHub, sostengono che la dottrina del fair use li protegge dalle rivendicazioni sul copyright. Bisogna comunque notare che I modelli di intelligenza artificiale generativa, incluso GPT-4, hanno anche la tendenza ad avere allucinazioni o a inventare fatti. Ciò è particolarmente problematico nel regno della codifica.

Secondo un recente studio di Stanford, gli sviluppatori che utilizzano assistenti AI per codificare tendono a produrre codice meno sicuro rispetto a coloro che non utilizzano assistenti AI. Questo problema è dato in parte dall’introduzione di frammenti di codice difettosi o deprecati. Tuttavia, come ha rivelato Shuyin Zhao, vicepresidente della gestione dei prodotti presso GitHub ai colleghi di TechCrunchGPT-4 funziona meglio contro le allucinazioni rispetto al vecchio modello che una volta alimentava Copilot e puntava a funzionalità di mitigazione degli exploit come filtri per modelli di codice non sicuri, che avvisano gli utenti di Copilot Chat di vulnerabilità come credenziali hardcoded, iniezioni SQL e iniezioni di percorso”. Zhao infine ha sottolineato che, nonostante l’aiuto di Copilot Chat nella creazione di codice, la revisione umana dei risultati dell’AI rimane comunque di estrema importanza.

Ti consigliamo anche