AGI sta per Artificial General Intelligence. È un'IA che, a differenza dei modelli specializzati di oggi, può fare qualunque compito intellettuale a livello umano: ragionamento astratto, creatività, comprensione contestuale, apprendimento di nuovi compiti senza essere riaddestrata.
L'IA attuale è "stretta": ChatGPT è bravissimo a generare testo ma non sa guidare un'auto. Tesla Autopilot guida ma non scrive un romanzo. AGI sarebbe un sistema che fa entrambe le cose, e tutto il resto, come un essere umano.
Esiste? No. Nel 2026 nessun sistema esistente è AGI. I modelli più avanzati (GPT-5, Claude 4, Gemini 3) sono molto bravi su molti compiti ma falliscono in modi sorprendenti su altri.
Quando arriverà? Dipende da chi chiedi:
- Sam Altman (OpenAI): "molto presto, anni non decenni".
- Yann LeCun (Meta): "non con l'architettura attuale, decenni".
- Geoffrey Hinton: "10-20 anni, e dovremmo avere paura".
- Critici accademici: "potrebbe anche non arrivare mai con questa traiettoria".
Differenza con ASI (Artificial Super Intelligence): l'AGI è "umano-livello", l'ASI è "molto sopra umano". Per i fan dell'AGI, una volta arrivata l'AGI l'ASI segue rapidamente. Per i critici, niente di tutto questo.
Perché te ne dovrebbe importare: il dibattito su AGI muove miliardi di investimenti, decisioni politiche (AI Act, AI Safety Bill), narrazioni media. Anche se non arriva mai, chi ne parla sta plasmando il presente.