Accelerationism / e/acc

[akselerèshionizmo]

Movimento che sostiene di accelerare al massimo lo sviluppo IA senza freni etici. Slogan: 'e/acc'. Posizione opposta a doomer e cauti. Marc Andreessen, parte di Silicon Valley.

L'accelerationism (in IA: effective accelerationism, abbreviato e/acc) è un movimento ideologico-culturale, principalmente di Silicon Valley, che sostiene di accelerare al massimo lo sviluppo tecnologico, in particolare dell'IA, senza freni etici, regolatori o di safety.

Origini: il termine "accelerationism" ha radici filosofiche complesse (Nick Land, anni '90). La versione "e/acc" applicata all'IA emerge nel 2022-2023, principalmente su Twitter/X, in opposizione al doomerismo e al "decel" (decelerazionismo).

Tesi principali:

  • Lo sviluppo tecnologico è di per sé buono.
  • Frenare l'IA è il vero rischio (cinesi avanzano comunque).
  • Le preoccupazioni di safety sono spesso scuse per regolamentazione protezionistica delle big tech.
  • La storia dimostra che le innovazioni tecnologiche risolvono più problemi di quanti ne creano.
  • Energia + intelligenza + libertà = progresso. Ogni ostacolo è male.

Figure pubbliche:

  • Marc Andreessen: VC, ha pubblicato "Techno-Optimist Manifesto" (2023). Considera AI safety nemica del progresso.
  • Beff Jezos (pseudonimo di Guillaume Verdon, ex-Google): co-fondatore di e/acc come movimento Twitter.
  • Garry Tan (Y Combinator): orientamento simile.
  • Parte di Silicon Valley libertarian: posizione mainstream nei circoli VC.

Critiche al movimento:

  • Storicamente cieco: l'industria nucleare, chimica, fossile ha causato disastri ambientali. Non tutto progresso tecnico è netto positivo.
  • Conflitto di interessi: chi predica e/acc spesso ha capitale investito nella corsa all'IA.
  • Falso binario: presenta scelta come "tutto o niente" tra accelerazione totale e fermare tutto, ignorando posizioni intermedie.
  • Asimmetria del rischio: in scenari catastrofici, "vediamo come va" non è strategia razionale.

Stato del dibattito:

  • Su X / Twitter, polarizzazione tra e/acc e safety community.
  • Alcune aziende (xAI di Musk, parte di Meta) hanno orientamento più accelerazionista.
  • Altre (Anthropic, parte di Google DeepMind) più caute.
  • OpenAI è caso interessante: nato come safety-focused, evoluto verso commerciale, alcuni fondatori usciti per disaccordo (Sutskever ha fondato Safe Superintelligence Inc.).

Per chi guarda da fuori: utile capire che il dibattito IA non è tecnico/scientifico puro. È anche ideologico, con interessi economici e visioni del mondo contrastanti. Quando un VC vi dice "non preoccupatevi, è tutto progresso", chiedete: chi ci guadagna se non vi preoccupate?