Il Frontier Model Forum è un consorzio industriale fondato a luglio 2023 da quattro aziende: Anthropic, Google, Microsoft, OpenAI. Aggiunte successivamente Amazon e Meta.
Obiettivi dichiarati:
- Promuovere ricerca su sicurezza dei modelli di frontiera.
- Identificare best practice per sviluppo responsabile.
- Collaborare con governi, accademici, società civile.
- Aiutare applicazioni IA che affrontino sfide globali (clima, salute).
Attività concrete:
- AI Safety Fund: 10 milioni di dollari iniziali per ricerca esterna su safety (fondi modesti rispetto al settore).
- Working group tematici su evaluation, red teaming, disclosure di vulnerabilità.
- Pubblicazione di report: best practice condivise.
- Coordinamento con governi: input agli AI Safety Summit (Bletchley 2023, Seoul 2024, Paris 2025).
Critiche al Forum:
- Self-regulation: chi controlla il controllore? Sono le stesse aziende che sviluppano i modelli a definire le regole.
- Esclusione di altri attori: solo aziende USA grandi. Mistral, DeepSeek, lab cinesi e accademici fuori.
- Ruolo simbolico: alcuni critici lo vedono come operazione di immagine per evitare regolamentazione più stringente.
- Trasparenza limitata: agenda e decisioni interne non sempre pubbliche.
Confronto con altri organismi:
- Partnership on AI (2016): più ampio, include società civile.
- AI Safety Institutes (UK, USA): pubblici/governativi.
- OpenAI's Preparedness Framework, Anthropic's Responsible Scaling Policy: framework interni delle singole aziende, condivisi nel Forum.
Per le aziende che usano fornitori del Forum: significa che i vostri provider hanno (almeno sulla carta) sottoscritto impegni su safety. Verificare nei loro DPA e condizioni di servizio cosa significa concretamente. Lo iato tra impegni dichiarati e pratiche operative può essere ampio.