Executive Order on AI (USA)

[ekzècutiv òrder]

Ordine esecutivo USA sull'IA: Biden ottobre 2023 ha imposto reporting obbligatorio per modelli grandi; Trump gennaio 2025 lo ha revocato sostituendolo con linea più permissiva.

Negli USA, in assenza di una legge federale completa sull'IA come l'AI Act europeo, la regolamentazione passa principalmente per Executive Orders (ordini esecutivi presidenziali) e iniziative di agenzie federali.

I due Executive Order chiave:

Biden — Executive Order 14110 (30 ottobre 2023): "Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence". Punti principali:

  • Reporting obbligatorio al governo USA per chi addestra modelli sopra una certa soglia (10^26 FLOP), invocando il Defense Production Act.
  • NIST incaricato di sviluppare standard di sicurezza IA e creare AI Safety Institute.
  • Red teaming pre-rilascio per modelli di frontiera, condiviso col governo.
  • Watermark per contenuti generati da IA del governo federale.
  • Equity guidelines: prevenzione discriminazione algoritmica.
  • Privacy: investimento in tecniche tipo differential privacy.
  • Worker protection: linee guida contro sfruttamento da automazione.
  • Governo come buon utilizzatore: linee guida acquisti pubblici IA.

Trump — Executive Order "Removing Barriers to American Leadership in Artificial Intelligence" (23 gennaio 2025): revoca dell'ordine Biden. Punti principali:

  • Revoca obblighi di reporting per modelli di frontiera.
  • Direttiva di rimuovere "barriere" allo sviluppo IA americano.
  • Focus su competizione con Cina più che su safety.
  • Mantenuti alcuni elementi del NIST framework, ma in forma più volontaria.
  • AI Safety Institute (USAISI) ridimensionato e rinominato.

Cambio di paradigma:

  • Biden: "safety first, regolamentazione preventiva".
  • Trump: "innovation first, deregolamentazione".

Conseguenze internazionali:

  • Divergenza crescente tra approccio USA (deregolato) e UE (regolato).
  • Aziende USA continuano comunque a sottoscrivere voluntary commitments.
  • Stati USA singoli (California, Colorado, NY) procedono con leggi proprie.
  • Tensioni transatlantiche su AI governance.

Per le aziende italiane che operano con fornitori USA: il quadro è in flusso. Quello che conta per voi è l'AI Act europeo, non gli ordini esecutivi USA. Ma il calo di safety culture lato USA è qualcosa da considerare nei rischi di fornitura.

California ha approvato nel 2024 il SB 1047 (poi vetoed dal governatore Newsom) e nel 2025 leggi più mirate (SB 53 sui frontier model). Lo stato resta laboratorio normativo USA principale.