Few-shot

[fìu-shot]

Tecnica di prompting dove dai 2-5 esempi di input/output al modello prima di chiedergli il task vero. Migliora drasticamente la qualità.

Few-shot prompting (o "few-shot learning") è la tecnica di dare al modello alcuni esempi di input → output desiderato prima di chiedergli il task vero. Il modello "impara" dall'esempio quale tipo di output vuoi.

Esempio:

Classifica le frasi come positive o negative:

"Adoro questo prodotto" → positivo
"Mai più questa schifezza" → negativo
"Servizio eccezionale" → positivo

Classifica:
"Pessima esperienza" → ?

Il modello, vedendo gli esempi, capisce il format e classifica correttamente.

Vantaggi del few-shot:

  • Format consistency: il modello replica il format dei tuoi esempi.
  • Task specificity: chiarisci esattamente cosa vuoi.
  • Quality boost: spesso da 60% a 95% di accuracy su task complessi.
  • No fine-tuning: ottieni comportamento custom senza addestrare.

Tecniche correlate:

  • Chain-of-Thought few-shot: gli esempi mostrano anche il ragionamento, non solo la risposta. Spinge il modello a ragionare anche lui.
  • Random sampling: gli esempi vengono scelti casualmente da un pool. Diversifica.
  • Similar example: scegli esempi simili alla query corrente. Massima rilevanza.

Quando preferire few-shot a fine-tuning:

  • Quando hai pochi esempi (decine, non migliaia).
  • Quando il task cambia spesso.
  • Quando vuoi flessibilità senza ri-addestrare.

Quando preferire fine-tuning:

  • Quando hai molti esempi (migliaia).
  • Quando il task è stabile.
  • Quando vuoi ridurre token in input ad ogni richiesta.