Un embedding è una traduzione del significato in numeri. Specificamente, in un vettore lungo (es. 1536 numeri per i modelli OpenAI). Cose che hanno significato simile producono vettori vicini, cose con significato diverso producono vettori lontani.
Esempio concreto: la parola "cane" e la parola "cucciolo" producono embedding numerici molto vicini (perché significato simile). La parola "cane" e la parola "frigorifero" producono embedding lontani (significato lontano).
A cosa serve in pratica:
- Ricerca semantica: invece di cercare parole esatte ("blu") trovi documenti che parlano di concetti simili ("celeste", "azzurro", "cielo").
- Raccomandazioni: prodotti, articoli, video simili a quello che hai visto.
- Clustering: raggruppare automaticamente cose simili.
- RAG: trovare i documenti più rilevanti per una domanda.
Per chi sviluppa applicazioni IA, gli embedding sono il pane quotidiano. Per chi usa solo ChatGPT, sono "dietro le quinte" ma fanno funzionare un sacco di cose che non vedi.
Modelli di embedding noti: OpenAI text-embedding-3, Cohere embed, BGE (open source), Sentence-Transformers (open source).