Il system prompt sono istruzioni che dai a un LLM all'inizio di una conversazione, prima dell'input dell'utente. Definiscono il "carattere" del modello in quella sessione: ruolo, tono, regole di comportamento, formato delle risposte.
Esempio:
System: Sei un assistente legale specializzato in diritto del lavoro italiano.
Rispondi in modo formale ma chiaro. Se non sei sicuro, dillo.
Cita sempre articoli di legge specifici quando rilevanti.
User: Quanto vale il TFR di un dipendente con 10 anni di anzianità?
Il system prompt non è visibile all'utente nella conversazione. Lavora "dietro le quinte".
Cosa puoi fare con system prompt:
- Definire ruolo: "sei un avvocato", "sei un copywriter", "sei Pasqualino di Super Squalo".
- Tono di voce: formale, casual, sarcastico, rompiscatole.
- Regole: cosa fare e cosa non fare.
- Format output: JSON, markdown, lista puntata, ecc.
- Persona azienda: chatbot che parla "come l'azienda".
- Contesto base: data, lingua, dominio.
Considerazioni di sicurezza:
- Il system prompt è testo, non magia: utenti smaliziati possono cercare di "tirarlo fuori" o ignorarlo (jailbreak).
- Non mettere segreti veri nel system prompt.
- Modelli più recenti (Claude, GPT) sono più resistenti a "rivelare" il system prompt.
Best practice:
- Sii specifico ma non lunghissimo (consuma context).
- Includi esempi se necessario (few-shot dentro system prompt).
- Aggiorna iterativamente in base ai risultati reali.