Anthropic ha compiuto un passo audace rivelando al pubblico i prompt di sistema che utilizza per addestrare i suoi chatbot (Claude 3.5 Sonnet, Claude 3 Opus e Claude 3.5 Haiku). Si tratta di un evento senza precedenti nel settore tecnologico: nessuna azienda aveva mai divulgato queste informazioni considerate “top secret”.
Come riportato su AiToolReport, tutte le aziende di intelligenza artificiale utilizzano i prompt di sistema per definire cosa i loro chatbot possono e non possono fare. Anthropic, tuttavia, è la prima a rendere pubblici questi prompt, scegliendo di posizionarsi come un’azienda trasparente ed etica rispetto ad altre che preferiscono mantenere il riserbo, forse per rimanere competitive o per evitare che gli hacker tentino di manipolare i modelli attraverso iniezioni di prompt.
Gli ultimi prompt di sistema di Anthropic (aggiornati a luglio) istruiscono tutti e tre i modelli a non utilizzare frasi riempitive come “Certamente!”, “Assolutamente!”, “Fantastico!” e a non aprire link, URL o video. Inoltre, non possono identificare o nominare persone nelle immagini e devono essere “molto intelligenti e intellettualmente curiosi”.
I modelli non devono mai scusarsi per non conoscere una risposta e, se viene posta una domanda complessa che richiede informazioni difficilmente reperibili su Internet, devono avvertire l’utente che cercheranno di fornire una risposta accurata ma potrebbero incorrere in errore.
Mentre la base di conoscenza di Claude 3 Opus è stata aggiornata l’ultima volta ad aprile di quest’anno, quelle di Claude 3 Haiku e Sonnet sono state aggiornate l’ultima volta ad agosto dell’anno scorso. Ciò significa che i modelli possono rispondere solo a domande relative a quei periodi.
Questo contenuto è stato scritto da un utente della Community. Il responsabile della pubblicazione è esclusivamente il suo autore.