La conversational AI è l'ombrello che include tutti i sistemi che dialogano con esseri umani in linguaggio naturale per uno scopo specifico. Chatbot di customer service, assistenti vocali in azienda, voicebot di prenotazione, IVR moderni: tutta conversational AI.
Differenza con un LLM tipo ChatGPT: i sistemi di conversational AI sono progettati per task specifici con flussi controllati, integrazioni con sistemi aziendali, e (di solito) guardrail stretti per non andare fuori contesto.
Piattaforme reali:
- Google Dialogflow CX: piattaforma enterprise, flussi visuali.
- Microsoft Copilot Studio (ex Power Virtual Agents): nell'ecosistema Microsoft.
- Amazon Lex: AWS, integrato con Alexa tech.
- IBM Watson Assistant: enterprise classica.
- Voiceflow, Botpress, Rasa: alternative più indipendenti.
- Cognigy, Kore.ai: enterprise conversational AI.
Casi d'uso:
- Customer service automatizzato (testo e voce).
- Prenotazioni (alberghi, ristoranti, dottori).
- Banking conversazionale (consultare saldo, fare bonifici).
- Helpdesk IT interno.
- Onboarding utenti.
Architettura tipica:
- NLU (Natural Language Understanding) per capire intent ed entità.
- Dialog manager per gestire il flusso.
- Backend integration per accedere a dati reali.
- NLG o template per generare risposte.
- Sempre più spesso: LLM dietro le quinte, con prompt strutturati.
Pro: scalabilità, 24/7, multilingua, riduzione costi supporto.
Contro:
- Setup pesante: progettare flussi conversazionali decenti richiede mesi e team specializzato.
- Manutenzione costante: il bot va aggiornato continuamente.
- Frustrazione utente: se non capisce, l'utente si incazza più che con un menu IVR vecchio stile.
- Privacy: ogni conversazione passa per fornitori cloud.
Trend 2026: i flussi rigidi stanno cedendo a sistemi LLM-based che improvvisano di più. Più flessibili ma meno prevedibili. Si trova il giusto equilibrio caso per caso.