Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Anthropic introduce generatore di prompt per migliorare le app AI

Le nuove funzionalità di Anthropic sono basato sul modello Claude 3.5 Sonnet e permetteranno di ottenere input e risposte migliori dall’AI.
Anthropic introduce generatore di prompt per migliorare le app AI
Le nuove funzionalità di Anthropic sono basato sul modello Claude 3.5 Sonnet e permetteranno di ottenere input e risposte migliori dall’AI.
Link copiato negli appunti

Anthropic ha recentemente rilasciato nuove funzionalità per aiutare gli sviluppatori a creare applicazioni più utili con il modello linguistico della startup, ovvero Claude. Ciò è quanto si apprende da un post pubblicato sul blog dell’azienda. Gli sviluppatori possono ora utilizzare Claude 3.5 Sonnet per generare, testare e valutare i prompt, utilizzando tecniche di prompt engineering. Ciò consentirà di creare input migliori e migliorare le risposte di Claude per attività specializzate. I modelli linguistici sono piuttosto indulgenti quando si chiede loro di eseguire alcune attività. Tuttavia, a volte piccole modifiche alla formulazione di un prompt possono portare a grandi miglioramenti nei risultati. Questa nuova funzionalità è studiata proprio per dare un feedback rapido che potrebbe facilitare la ricerca di miglioramenti.

Anthropic: come funziona la Console per migliorare i prompt

Le funzionalità sono ospitate all'interno dell’Anthropic Console nella nuova scheda Evaluate (Valutazione). Console è la piattaforma di test della startup per gli sviluppatori, creata per attirare le aziende che desiderano creare prodotti con Claude. Una delle funzionalità, svelata a maggio, è il generatore di prompt integrato di Anthropic. Questo richiede una breve descrizione di un'attività e costruisce un prompt molto più lungo e dettagliato, utilizzando le tecniche di ingegneria rapida di Anthropic. Anche se gli strumenti di Anthropic potrebbero non sostituire del tutto i prompt engineer, la società ha affermato che aiuterebbero i nuovi utenti e farebbero risparmiare tempo anche agli esperti.

All'interno di Evaluate, gli sviluppatori possono testare l'efficacia dei suggerimenti della loro applicazione AI in una serie di scenari. Gli sviluppatori possono caricare esempi del mondo reale in una suite di test. In alternativa, possono chiedere a Claude di generare una serie di casi di test generati dall'intelligenza artificiale. Gli sviluppatori possono quindi confrontare l'efficacia dei vari suggerimenti fianco a fianco e valutare le risposte campione su una scala a cinque punti.

In un esempio di Anthropic, uno sviluppatore ha mostrato che la sua applicazione forniva risposte troppo brevi in ​​diversi casi di test. Questo ha quindi modificato una riga nel prompt per rendere le risposte più lunghe e applicarle simultaneamente a tutti i casi di test. Ciò potrebbe far risparmiare agli sviluppatori tempo e fatica, soprattutto quelli con poca o nessuna esperienza di progettazione immediata. In un’intervista a Google Cloud Next, il CEO e co-fondatore di Anthropic, Dario Amodei, ha affermato che il prompt engineering è stata una delle cose più importanti per l’adozione diffusa dell’intelligenza artificiale da parte delle imprese. Come ricordato da Amodei: "sembra semplice, ma 30 minuti con un prompt engineer spesso possono far sì che un'applicazione funzioni quando prima ciò non accadeva".

Ti consigliamo anche