EU AI Office

[iu-èi-ai òfis]

Ufficio della Commissione Europea istituito dall'AI Act per supervisionare i modelli di general-purpose AI con rischio sistemico. Operativo da febbraio 2024.

L'EU AI Office è un ufficio della Commissione Europea, formalmente istituito a febbraio 2024, con il compito di supervisionare l'implementazione dell'AI Act per i sistemi di general-purpose AI (GPAI), con focus specifico sui modelli con rischio sistemico.

Sede: Bruxelles. Parte della Direzione Generale CNECT della Commissione.

Compiti principali:

  • Vigilare sull'applicazione dell'AI Act per modelli GPAI (es. GPT, Claude, Gemini, Llama).
  • Definire le soglie tecniche per "rischio sistemico" (attualmente: oltre 10^25 FLOP di calcolo per addestramento).
  • Sviluppare codici di condotta per sviluppatori GPAI.
  • Coordinare con autorità nazionali degli Stati membri.
  • Promuovere standard tecnici e best practice.
  • Gestire valutazioni di modelli con rischio sistemico.
  • Sanzionare violazioni (in coordinamento con Commissione).

Cosa devono fare gli sviluppatori di modelli GPAI nei confronti dell'AI Office:

  • Notificare il modello prima del rilascio.
  • Fornire documentazione tecnica completa.
  • Pubblicare riassunto dei dati di addestramento.
  • Rispettare copyright (specialmente sotto la direttiva DSM).
  • Per modelli con rischio sistemico: condurre valutazioni di sicurezza, red teaming, monitorare incidenti gravi, condividere informazioni con AI Office.

Sanzioni AI Act tramite l'AI Office (massime):

  • Pratiche vietate: 35M o 7% fatturato globale.
  • Violazioni di obblighi sistemi alto rischio: 15M o 3% fatturato.
  • Informazioni false alle autorità: 7,5M o 1% fatturato.

Nel 2025-2026 l'AI Office ha negoziato il General-Purpose AI Code of Practice, codice volontario sottoscritto da OpenAI, Google, Anthropic, Microsoft. Meta inizialmente ha rifiutato, poi negoziato condizioni separate.

Per le aziende italiane che usano modelli GPAI: indirettamente l'AI Office vi tocca, perché impone obblighi ai vostri fornitori. Capire il loro stato di compliance è parte del vostro AI risk management.