L'effective altruism (EA) è un movimento filosofico e sociale nato attorno al 2011 a Oxford (William MacAskill, Toby Ord) che applica ragionamento e dati per identificare i modi più efficaci di "fare del bene". Ha avuto influenza notevole sulla cultura dell'AI safety.
Idee principali:
- L'altruismo va valutato per impatto effettivo, non per intenzioni.
- Causa con maggiore importanza × probabilità di successo × neglect dovrebbero ricevere priorità.
- Donare percentuale significativa del reddito a cause efficaci ("Giving What We Can": 10% minimo).
- "Earning to give": lavorare in finanza/tech per donare di più.
- Cause prioritarie identificate: salute globale, povertà estrema, animal welfare, e rischi esistenziali tra cui AI safety.
Connessione con AI safety:
- EA ha finanziato gran parte della ricerca AI safety degli ultimi 10 anni.
- Open Philanthropy (fondazione Cari Tuna / Dustin Moskovitz) ha donato centinaia di milioni a MIRI, Anthropic, AI Safety Institutes accademici.
- FTX Future Fund (Sam Bankman-Fried prima del crollo) ha distribuito decine di milioni.
- OpenAI iniziale era influenzato da EA.
- Anthropic è stata fondata da persone vicine all'EA.
Crisi 2022-2023:
- Crollo FTX: Sam Bankman-Fried, donatore EA principale, condannato per frode multimiliardaria. Imbarazzo enorme per il movimento.
- Critiche al "longtermism" (priorità a futuro lontano vs presente).
- Drammi interni Open Philanthropy, MacAskill, leadership.
- Scisma tra "near-termist" (problemi presenti) e "long-termist" (rischi futuri).
Critiche all'EA:
- Calcolismo: ridurre etica a numeri trascura aspetti qualitativi.
- Elitismo: principalmente bianchi maschi laureati Oxford/Stanford.
- Tech bro: cultura e/acc lo considera moralismo soffocante.
- Autoreferenzialità: finanziano sé stessi su priorità che hanno definito loro.
- Cattura: alcuni considerano EA strumento di legittimazione per oligarchi tech.
Per il discorso IA italiano: l'EA è poco presente in Italia, ma plasma la cultura delle aziende USA con cui le PMI italiane lavorano. Capirla aiuta a leggere i discorsi su AI safety, perché conta capire chi parla, da dove viene, chi lo paga.