Frontier Model Forum

[fròntier mòdel fòrum]

Consorzio fondato nel 2023 da Anthropic, Google, Microsoft, OpenAI per coordinare ricerca su sicurezza dei modelli IA di frontiera. Auto-regolazione di settore, con limiti.

Il Frontier Model Forum è un consorzio industriale fondato a luglio 2023 da quattro aziende: Anthropic, Google, Microsoft, OpenAI. Aggiunte successivamente Amazon e Meta.

Obiettivi dichiarati:

  • Promuovere ricerca su sicurezza dei modelli di frontiera.
  • Identificare best practice per sviluppo responsabile.
  • Collaborare con governi, accademici, società civile.
  • Aiutare applicazioni IA che affrontino sfide globali (clima, salute).

Attività concrete:

  • AI Safety Fund: 10 milioni di dollari iniziali per ricerca esterna su safety (fondi modesti rispetto al settore).
  • Working group tematici su evaluation, red teaming, disclosure di vulnerabilità.
  • Pubblicazione di report: best practice condivise.
  • Coordinamento con governi: input agli AI Safety Summit (Bletchley 2023, Seoul 2024, Paris 2025).

Critiche al Forum:

  • Self-regulation: chi controlla il controllore? Sono le stesse aziende che sviluppano i modelli a definire le regole.
  • Esclusione di altri attori: solo aziende USA grandi. Mistral, DeepSeek, lab cinesi e accademici fuori.
  • Ruolo simbolico: alcuni critici lo vedono come operazione di immagine per evitare regolamentazione più stringente.
  • Trasparenza limitata: agenda e decisioni interne non sempre pubbliche.

Confronto con altri organismi:

  • Partnership on AI (2016): più ampio, include società civile.
  • AI Safety Institutes (UK, USA): pubblici/governativi.
  • OpenAI's Preparedness Framework, Anthropic's Responsible Scaling Policy: framework interni delle singole aziende, condivisi nel Forum.

Per le aziende che usano fornitori del Forum: significa che i vostri provider hanno (almeno sulla carta) sottoscritto impegni su safety. Verificare nei loro DPA e condizioni di servizio cosa significa concretamente. Lo iato tra impegni dichiarati e pratiche operative può essere ampio.