Nel 2050 saremo circa 14 miliardi di abitanti. Tutti consumeremo, produrremo, inquineremo, ci relazioneremo, mangeremo; solo la maggior parte di questi amerà e soffrirà. Le Nazioni Unite hanno studiato che nel 2050 ci saranno 9,8 miliardi di abitanti del pianeta. Ma saremo molti di più. Mancano infatti al conteggio 4 miliardi di robot.
In qualità di capo del Department of Government Efficiency (DOGE), un organismo consultivo creato dall’amministrazione Trump, Elon Musk ha promosso una serie di iniziative volte a ridurre significativamente il personale federale. Nel marzo 2025, il DOGE ha inviato lettere di licenziamento a oltre 216.000 dipendenti statali, rappresentando circa l’80% dei 275.240 licenziamenti annunciati negli Stati Uniti in quel mese. Inoltre, Musk ha richiesto a tutti i dipendenti federali di inviare un’email dettagliando i risultati ottenuti durante la settimana, minacciando il licenziamento in caso di mancata risposta.
È un articolo questo pieno di premesse o forse più semplicemente di appunti elementari; ma nell’epoca dell’Artificene non ci sono esperti nel campo della AI, solo persone che provano a capire, confrontarsi e raccogliere informazioni e dati, sperando e ricercando che siano di qualità.
Il 1° marzo 2025, la GSA ha annunciato la chiusura del team 18F, un’unità interna composta da consulenti tecnologici ed ingegneri dedicati allo sviluppo di strumenti open-source per migliorare i servizi digitali del governo federale. Questa decisione ha portato al licenziamento di circa 70 dipendenti, tra cui product manager, ingegneri e designer. Il team 18F era noto per aver sviluppato servizi governativi chiave come Login.gov, il sistema di accesso centrale per programmi come Medicare, Medicaid e Social Security.
Dopo i licenziamenti di massa nella General Services Administration (GSA), è stato introdotto GSAi, un chatbot progettato per automatizzare compiti come la redazione di email, la scrittura di codice e la sintesi di testi. Nonostante le promesse di efficienza, molti dipendenti hanno criticato GSAi, paragonandolo a uno stagista per la sua limitata utilità e le risposte generiche. Parallelamente, il DOGE ha lavorato su AutoRif, un software originariamente sviluppato dal Dipartimento della Difesa, per automatizzare la selezione dei dipendenti da licenziare. Questo sistema utilizza l’IA per analizzare i dati dei dipendenti e identificare quelli considerati “non essenziali”, accelerando così il processo di riduzione del personale.
Sempre nella primavera di quest’anno l’amministrazione Trump ha ordinato il congelamento quasi totale degli aiuti esteri verso i paesi del sud del mondo. Pochi giorni dopo, Musk ha annunciato l’intenzione di chiudere USAID, definendola un’organizzazione “criminale” e “irrecuperabile” . Il sito web dell’agenzia è stato disattivato, gli account social sono stati messi offline. Solo alcune centinaia dei più di 10.000 dipendenti sono stati mantenuti in servizio.
Intorno al 1450, dove oggi c’è New York, nacque la Confederazione Haudenosaunee, Irochese per i colonialisti. Le cinque comunità originarie, i nativi americani, Mohawk, Oneida, Onondaga, Cayuga e Seneca erano coinvolte in guerre intestine, conflitti continui che devastavano le popolazioni e rendevano instabile la vita quotidiana. La pressione esterna da parte di vicini rivali come gli Algonchini, insieme alla necessità di difendere i territori agricoli e di pastorizia, spinse le varie comunità a cercare un’alleanza. Le comunità, nazioni per i colonialisti, avevano già consigli popolari basati sul consenso, e l’estensione di questo modello tra nazioni portò alla formazione di una federazione. La Confederazione era fondata sul consenso unanime, con ogni comunità che manteneva la propria autonomia. Si trattava di un’alleanza politica e spirituale che aveva come obiettivo la pace tra le comunità e la gestione collettiva delle decisioni. Il tutto codificato in un corpus di norme noto come Gayanashagowa: la “Grande Legge della Pace”.
Uno dei precetti più significativi contenuti nella Gayanashagowa è il Principio delle Sette Generazioni. Recita così: “Quando prenderete una decisione, dovete considerare l’impatto che avrà sulle prossime sette generazioni”. Il principio, attribuito al profeta Deganawida, non è retorica: era un vincolo politico concreto. Le decisioni del Consiglio dei Capi, i sachem, dovevano tener conto non solo dei vivi, ma di chi ancora non era nato. Un’idea profondamente ecologica, intergenerazionale, strategica. Non un futuro qualunque, ma un futuro legato alla continuità culturale, ecologica, spirituale. La foresta dove si riunivano, i fiumi, i cicli agricoli, le storie trasmesse oralmente, tutto doveva poter durare e migliorare.
Nel 1988, il Congresso degli Stati Uniti ha approvato una risoluzione formale (U.S. Senate Concurrent Resolution 76, e House Concurrent Resolution 331), in cui si legge: “I principi della Confederazione Haudenosaunee hanno contribuito allo sviluppo della Costituzione degli Stati Uniti.” Nella stessa risoluzione si rende omaggio al sistema politico degli Haudenosaunee e alla Grande Legge della Pace, la Gayanashagowa, come ispirazione per il federalismo americano, la divisione dei poteri e il concetto di consenso tra Stati.
Nel 2009 mentre stava passeggiando nei giardini di Oxford, il filosofo Toby Ord decide il nome per un’iniziativa a cui pensa da anni e fonda Giving What We Can segnando uno dei momenti simbolici più importanti nella nascita dell’altruismo efficace. L’idea centrale è semplice: impegnarsi pubblicamente a donare almeno il 10% del proprio reddito per tutta la vita a organizzazioni benefiche che abbiano il massimo impatto dimostrabile. Ord è ispirato dalle idee morali di Peter Singer e dalle sue riflessioni sul dovere di aiutare gli altri quando possiamo farlo con un sacrificio minimo. GWWC propone una forma di impegno misurabile, eticamente esigente ma accessibile, che trasforma la beneficenza da gesto volontario a responsabilità morale continua. Nei primi mesi l’impegno viene firmato da una cerchia ristretta di accademici, ma in breve tempo si espande, diventando un punto di riferimento globale per chi vuole agire con rigore morale e razionalità.
Nel 2011 Peter Singer, professore di bioetica a Princeton, pubblica The Life You Can Save, un libro fondamentale per la diffusione dell’altruismo efficace, in cui sostiene che abbiamo l’obbligo morale di aiutare chi soffre, se possiamo farlo senza grandi sacrifici. Nel 2012 William MacAskill e Benjamin Todd fondano a Oxford 80,000 Hours, un’organizzazione che aiuta le persone a scegliere carriere ad alto impatto etico, introducendo l’idea di “earning to give”, ovvero guadagnare molto per poter donare di più. Nel 2015 MacAskill pubblica Doing Good Better, che consolida l’altruismo efficace come movimento globale, proponendo un metodo razionale e basato su dati per massimizzare il bene attraverso le nostre azioni.
A partire dal 2016, sempre a Oxford, emerge un filone più radicale: se vogliamo davvero massimizzare il bene, dobbiamo considerare non solo il presente ma l’intero futuro dell’umanità. Nasce così il longtermismo, termine formalizzato tra il 2017 e il 2019 in ambienti come il Future of Humanity Institute e il Global Priorities Institute. Il concetto viene portato al grande pubblico nel 2022 con il libro What We Owe the Future di MacAskill, in cui si afferma che il benessere delle generazioni future ha un peso morale enorme, e che le decisioni prese oggi potrebbero determinare il corso dei prossimi milioni di anni. Il suo pensiero si può riassumere nella formula che si trova nel libro e che serve a valutare le priorità morali delle nostre azioni oggi in base al loro impatto nel tempo.:
Valore = Significance × Persistence × Contingency
Alcuni esempi per capire..
Significance:
- evitare una guerra nucleare ha altissima importanza (significatività): coinvolge miliardi di vite e la sopravvivenza della civiltà.
- migliorare la produttività lavorativa in ufficio ha un’importanza (significatività) bassa sul lungo periodo.
Persistence:
- introdurre valori morali positivi (es. contro la schiavitù) nella cultura può persistere per secoli.
- fare beneficenza occasionale a un individuo può essere etico, ma l’effetto non persiste oltre la singola vita.
Contingency:
- fermare una tecnologia pericolosa (come l’IA fuori controllo) prima che diventi incontrollabile è un momento altamente contingente.
- donare a un ospedale già ben finanziato ha bassa contingenza: altri potrebbero farlo al posto nostro.
Il longtermismo cammina sul filo teso della lucidità e dell’indifferenza. È disposto a tutto, anche a voltare le spalle al presente, se questo serve a proteggere un futuro che nessuno ha ancora visto ma che potrebbe contenere miliardi di vite, milioni di anni, civiltà intere ancora da immaginare. I suoi teorici usano i numeri e i dati, e se devono scegliere tra salvare un milione di persone oggi o aumentare anche solo di poco la probabilità che l’umanità non si estingua, non esitano. Nick Bostrom, un grande scienziato ideologo del longtermismo, scrive che prevenire la fine conta più di ogni singola sofferenza contingente. Il cambiamento climatico? Drammatico, sì, ma sacrificabile, se fermarlo rallenta lo sviluppo di un’intelligenza artificiale sicura. La priorità è preservare la possibilità stessa del domani. Per questo il longtermismo accetta l’idea di sorveglianza globale, di governance planetaria, persino di limiti etici al progresso, se servono a evitare il collasso. Non c’è misericordia, solo calcolo: ogni vita conta, ma conta di più ciò che la rende possibile. È etica spogliata da ogni retorica, che guarda avanti come un veggente matematico, disposto a lasciare che il presente sanguini, pur di garantire che il futuro respiri.
Il longtermismo si veste di razionalità matematica, ma è una liturgia mascherata, una fede laica fondata sul culto del futuro ipotetico. Dice di voler salvare il mondo, ma intende salvare il mondo che verrà, non quello che brucia ora. Costruito sulla scia dell’altruismo efficace, ne eredita la freddezza calcolatrice: non il dolore presente, ma l’aspettativa statistica di un’umanità futura — miliardi, trilioni di esseri senzienti virtuali o biologici — diventa la misura suprema dell’agire morale. Ogni crisi reale, ogni ingiustizia attuale, ogni disuguaglianza sociale viene svalutata, se non rappresenta una minaccia per la continuità della specie. La fame non è un rischio esistenziale, il razzismo nemmeno, la guerra solo se è totale. Il resto può attendere. Anzi, può essere sacrificato. Perché il vero crimine, nella logica longtermista, è l’interruzione della linea temporale della specie, non la sofferenza dei corpi che la compongono oggi. Così il presente diventa rumore. Il dolore immediato, trascurabile. Le priorità si spostano su asteroidi ipotetici, supervulcani dormienti, pandemie sintetiche e intelligenze artificiali eticamente divergenti. Ma in questa corsa verso il futuro, il longtermismo si lega sempre più a poteri economici e tecnologici che non vogliono cambiare nulla di ciò che genera la sofferenza ora. Si nutre di capitale, parla il linguaggio della Silicon Valley, trova casa nelle fondazioni milionarie e nei fondi filantropici che pretendono di rifare il mondo con gli strumenti del mondo che lo ha rovinato. È un’etica fatta di grafici, proiezioni, modelli probabilistici — e nessuna compassione. Non è solo un errore teorico: è un dispositivo che distoglie lo sguardo dalle lotte reali, dai corpi vivi, dai conflitti politici. È una dottrina che promette giustizia posticipata, mentre legittima l’inerzia nel presente. E in questo, nella sua capacità di presentare come morale l’indifferenza, sta la sua vera pericolosità. Perché ogni ideologia che pretende di sapere chi conta e chi no, chi va salvato e chi può essere ignorato, chi ha diritto a un mondo e chi no — è, nel profondo, tossica. E il longtermismo, dietro i suoi pensieri razionali e i suoi diagrammi eleganti, è esattamente questo.
Sottovalutare il longtermismo – o peggio, liquidarlo con sarcasmo ideologico – è un errore strategico enorme, soprattutto da parte di chi pretende di opporsi ad esso.
Parliamo di un pensiero che non è nato in un sottoscala accademico, ma nel cuore pulsante dell’élite intellettuale e finanziaria occidentale: Oxford, Silicon Valley, Davos, Washington. È sostenuto da menti come Musk, Thiel, Andreessen, Yarvin, Tallinn, e strutturato attraverso università, fondazioni, startup, venture capital e persino agende politiche emergenti. Non è una moda: è una forma di potere travestita da filosofia morale, e come tale va letta, compresa e sfidata con lucidità.
Curtis Yarvin è intelligente, competente, uno dei pensatori più influenti dell’area neoreazionaria americana, e i suoi scritti girano tra figure di potere che oggi non leggono solo pamphlet rivoluzionari, ma codici, white paper e modelli etici scalabili.
Sbeffeggiare il longtermismo con l’ironia moralista tipica di certa sinistra europea – quella che si rifugia nel sarcasmo e nell’unicità del proprio pensiero invece di costruire alternative è profondamente sbagliato e inutile. Il longtermismo non solo ha basi teoriche solide ma è riuscito a imporsi come bussola per allocare miliardi, influenzare policy sull’AI, la biotecnologia, la governance globale. È un’etica strategica: può risultare cinica, ma agisce.
Serve invece un confronto serio, anche duro, ma fondato: demistificare senza banalizzare, decostruire senza deridere, offrendo visioni del futuro altrettanto strutturate, altrettanto ambiziose, ma radicate nella giustizia concreta, nel presente vivente.
Il futuro non è un tempo: è una parte dell’essere vivente e non della terra, un suo piegarsi in avanti. Futurum viene da fuo, “io sarò”, radice che brucia — come phuo in greco, da cui nasce physis, la forza generativa, il grembo in tensione che partorisce ogni cosa. Il futuro, in questo senso, è la nascita incessante dell’essere. E c’è un altro modo potente di intenderlo: avvento, l’arrivo, l’irruzione. Qui il futuro non è ciò che sarà, ma ciò che sta per essere. È presenza che preme, che bussa alla porta del presente, che vuole già accadere. Futurum si proietta, si calcola; adventus si manifesta, si rivela. Uno lo si attende, l’altro ci sorprende. Uno si costruisce come ipotesi, l’altro accade come destino immaginato dall’umanità, nel presente salvaguardando ogni giorno qualsiasi forma di vita e non della terra. Alla ricerca della giustizia sociale.