Few-shot prompting (o "few-shot learning") è la tecnica di dare al modello alcuni esempi di input → output desiderato prima di chiedergli il task vero. Il modello "impara" dall'esempio quale tipo di output vuoi.
Esempio:
Classifica le frasi come positive o negative:
"Adoro questo prodotto" → positivo
"Mai più questa schifezza" → negativo
"Servizio eccezionale" → positivo
Classifica:
"Pessima esperienza" → ?
Il modello, vedendo gli esempi, capisce il format e classifica correttamente.
Vantaggi del few-shot:
- Format consistency: il modello replica il format dei tuoi esempi.
- Task specificity: chiarisci esattamente cosa vuoi.
- Quality boost: spesso da 60% a 95% di accuracy su task complessi.
- No fine-tuning: ottieni comportamento custom senza addestrare.
Tecniche correlate:
- Chain-of-Thought few-shot: gli esempi mostrano anche il ragionamento, non solo la risposta. Spinge il modello a ragionare anche lui.
- Random sampling: gli esempi vengono scelti casualmente da un pool. Diversifica.
- Similar example: scegli esempi simili alla query corrente. Massima rilevanza.
Quando preferire few-shot a fine-tuning:
- Quando hai pochi esempi (decine, non migliaia).
- Quando il task cambia spesso.
- Quando vuoi flessibilità senza ri-addestrare.
Quando preferire fine-tuning:
- Quando hai molti esempi (migliaia).
- Quando il task è stabile.
- Quando vuoi ridurre token in input ad ogni richiesta.