L'EU AI Office è un ufficio della Commissione Europea, formalmente istituito a febbraio 2024, con il compito di supervisionare l'implementazione dell'AI Act per i sistemi di general-purpose AI (GPAI), con focus specifico sui modelli con rischio sistemico.
Sede: Bruxelles. Parte della Direzione Generale CNECT della Commissione.
Compiti principali:
- Vigilare sull'applicazione dell'AI Act per modelli GPAI (es. GPT, Claude, Gemini, Llama).
- Definire le soglie tecniche per "rischio sistemico" (attualmente: oltre 10^25 FLOP di calcolo per addestramento).
- Sviluppare codici di condotta per sviluppatori GPAI.
- Coordinare con autorità nazionali degli Stati membri.
- Promuovere standard tecnici e best practice.
- Gestire valutazioni di modelli con rischio sistemico.
- Sanzionare violazioni (in coordinamento con Commissione).
Cosa devono fare gli sviluppatori di modelli GPAI nei confronti dell'AI Office:
- Notificare il modello prima del rilascio.
- Fornire documentazione tecnica completa.
- Pubblicare riassunto dei dati di addestramento.
- Rispettare copyright (specialmente sotto la direttiva DSM).
- Per modelli con rischio sistemico: condurre valutazioni di sicurezza, red teaming, monitorare incidenti gravi, condividere informazioni con AI Office.
Sanzioni AI Act tramite l'AI Office (massime):
- Pratiche vietate: 35M o 7% fatturato globale.
- Violazioni di obblighi sistemi alto rischio: 15M o 3% fatturato.
- Informazioni false alle autorità: 7,5M o 1% fatturato.
Nel 2025-2026 l'AI Office ha negoziato il General-Purpose AI Code of Practice, codice volontario sottoscritto da OpenAI, Google, Anthropic, Microsoft. Meta inizialmente ha rifiutato, poi negoziato condizioni separate.
Per le aziende italiane che usano modelli GPAI: indirettamente l'AI Office vi tocca, perché impone obblighi ai vostri fornitori. Capire il loro stato di compliance è parte del vostro AI risk management.