

I potenti della AI invocano, per l’ennesima volta, precauzione per consolidare il proprio ruolo di custodi. Ma non è precauzione, è accentramento. non è etica, è monopolio della narrazione e non è un allarme, è una messa in scena.
C’è sempre qualcosa che stride, che non torna, che lascia un retrogusto amaro, davanti a intenti e manifesti come questo del Future of Life Institute intitolato “Statement on Superintelligence”, pubblicata il 22 ottobre 2025 (link nei commenti). I padri, i potenti, i fondatori, gli uomini-spettacolo dell’AI, cortigiani e costruttori, (e sembra incredibile leggere di Hinton, Altman, Bengio, Amodei, Russel, Suleyman, Gates, Bannon, Harry il principe di Sussex e molti altri tutti assieme) mettono in guardia il volgo, dai pericoli di una tecnologia che loro stessi stanno costruendo, finanziando, promuovendo e dirigendo. È un gioco antico: il potere che si finge coscienza, l’arciere che ti avverte del colpo mentre sta già tendendo la corda.
Coloro che firmano questi appelli non sono esterni al problema. Non stanno denunciando un potere altro da sé: stanno cercando di consolidare un dominio auto-legittimato attraverso l’allarme. Il messaggio è: “Attenzione, questa tecnologia è così potente da poter distruggere l’umanità” e sottinteso: “e noi siamo gli unici ad averne il controllo, quindi fidatevi di noi per regolarla.” Serve a rafforzare la posizione dei già dominanti. Chi detiene ora il potere economico, tecnico e infrastrutturale si propone come arbitro imparziale del rischio. Ma non c’è neutralità possibile: la regolazione, in queste condizioni, non è uno strumento di riequilibrio ma di consolidamento. I meccanismi decisionali restano chiusi, autoriferiti, impermeabili al conflitto. Non c’è partecipazione, né distribuzione; solo verticalità del discorso, protocolli di consenso pilotato e messa in scena della preoccupazione come atto di autorità morale.
Le lettere aperte come quella di Future of Life Institute sono atti pubblici, performativi, non strumenti di trasformazione. Servono a disinnescare il dissenso più che a promuovere la ricerca di un metodo deliberativo efficace. Spostano il discorso sulla minaccia futura (scenari apocalittici, AGI fuori controllo, estinzione dell’umanità…) invece di affrontare i danni presenti, concreti, quotidiani: come lo sfruttamento cognitivo, la concentrazione del potere, l’estrazione di dati, le diseguaglianze nella distribuzione dell’accesso e delle opportunità, l’estrazione ambientale e sociale e molto altro.
Il rischio reale non è l’estinzione, è l’espropriazione. Dietro queste dichiarazioni c’è una grammatica precisa, che funziona benissimo in ambito militare e di intelligence: chi controlla il rischio, controlla la narrativa. Parlare di AI come minaccia esistenziale globale consente di trasformare la governance dell’AI in materia di sicurezza nazionale, di sottrarla al dibattito democratico, di militarizzare la ricerca. E di chiudere le porte a forme alternative, territoriali, comunitarie, ecologiche, dell’intelligenza artificiale. Quando tutto è un rischio globale, niente è più oggetto di decisione collettiva, così l’urgenza legittima l’accentramento. E si sposta l’attenzione sulla tecnologia mentre il pericolo è il potere di chi la detiene e di chi lascia fare.
E in tutto questo, le istituzioni pubbliche e la politica democratica sono le grandi assenti. Non perché escluse, ma perché autoescluse. Quando non tacciono, delegano e quando parlano, firmano. Alcuni tra i nomi firmatari della lista provengono proprio da quei mondi che dovrebbero presidiare il processo decisionale e garantire il pluralismo. E invece da buoni vassalli l’assecondano e si accodano.
Un potere che finge fragilità per rafforzare se stesso. Quando i padri della tecnologia si presentano come garanti dell’umanità, mi chiedoi: di quale umanità parlano? Chi è dentro quel cerchio? Chi è lasciato fuori?
L’etica esibita da queste lettere è quella di chi ha già deciso la direzione, e ora vuole dettare anche i limiti morali del gioco. Ma come sempre, chi pone i limiti, decide anche chi è legittimato a superarli. A me interessa una AI, una tecnologia, la cui essenza sia dare una mano all’umanità e al globo, una mappa delle alternative; non l’ennesimo allarme generico. Un sistema radicale e eretico, che parli di ciò che l’AI è già oggi: una tecnologia fatta di estrazione di lavoro, risorse e senso. Perchè è cosi che l’hanno disegnata e voluta proprio i firmatari di questa lettera. E che non sia firmata dai potenti della Ai e dei loro cortigiani, ma da chi ha qualcosa da perdere, se il futuro resta nelle mani di pochi.
Immagine: Anselm Kiefer – “To the Unknown Painter” (1983). Un’architettura imponente, vuota, disturbante. Cemento, rovine, spettri del potere. Kiefer parla della memoria distrutta, del sapere eretto su macerie, del vuoto istituzionale.