Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Anthropic svela i “prompt di sistema” alla base di Claude

Anthropic ha deciso di pubblicare i prompt di tutti i suoi ultimi modelli di Claude per rendere più trasparente il loro funzionamento.
Anthropic svela i “prompt di sistema” alla base di Claude
Anthropic ha deciso di pubblicare i prompt di tutti i suoi ultimi modelli di Claude per rendere più trasparente il loro funzionamento.
Link copiato negli appunti

Ogni fornitore di IA generativa, da OpenAI ad Anthropic, usa prompt di sistema. Ciò serve a impedire ai modelli di “comportarsi male”, ma anche per orientare il tono generale e il sentimento delle risposte dei modelli. Solitamente le aziende tengono i prompt di sistema per sé. Ciò presumibilmente per motivi competitivi, ma anche perché conoscere il prompt di sistema potrebbe suggerire modi per aggirarlo. Tuttavia, Anthropic, nel suo continuo sforzo di presentarsi come un fornitore di AI etico e trasparente, ha pubblicato i prompt di sistema per i suoi ultimi modelli (Claude 3 Opus, Claude 3.5 Sonnet e Claude 3.5 Haiku) nelle app Claude per iOS, per Android e sul web. Alex Albert, responsabile delle relazioni con gli sviluppatori di Anthropic, ha affermato in un post su X che l’azienda prevede pubblicare i prompt in modo regolare in futuro.

Anthropic: esempi dei prompt di sistema di Claude

Gli ultimi prompt di sistema, datati 12 luglio, delineano chiaramente ciò che i modelli Claude non possono fare. Ad esempio, "Claude non può aprire URL, link o video". Il riconoscimento facciale è un grande out-out. il prompt di sistema per Claude Opus dice al modello di "evitare di identificare o nominare qualsiasi essere umano in [immagini]". I prompt descrivono anche alcuni tratti e caratteristiche della personalità che Anthropic vorrebbe che i modelli Claude esemplificassero. Ad esempio, il prompt per Claude 3 Opus, dice che il modello deve apparire come se "[fosse] molto intelligente e intellettualmente curioso" e "gli piacesse ascoltare cosa pensano gli umani su un problema e impegnarsi in discussioni su un'ampia varietà di argomenti". Inoltre, l’azienda istruisce Claude a trattare argomenti controversi con imparzialità e obiettività, fornendo "pensieri attenti" e "informazioni chiare". Inoltre, il modello non deve mai iniziare le risposte con le parole "certamente" o "assolutamente".

Questi prompt di sistema possono essere associati ad un foglio di analisi del personaggio in un’opera teatrale. Il prompt per Opus termina con "Claude è ora in contatto con un umano". Ciò dà l'impressione che Claude sia una sorta di coscienza dall'altra parte dello schermo il cui unico scopo è soddisfare i capricci dei suoi interlocutori umani. Ovviamente si tratta di un’illusione. Se i prompt per Claude ci dicono qualcosa, è che senza la guida e l'assistenza umana, questi modelli sono spaventosamente vuoti. Con questi nuovi changelog dei prompt di sistema, i primi del loro genere da un importante fornitore di IA, Anthropic sta esercitando pressione sui concorrenti affinché quest’ultimi facciano lo stesso. Ad oggi non è chiaro se tale strategia funzionerà.

Ti consigliamo anche