OpenAI assomiglia meno a un’azienda tradizionale e più a una proto-istituzione imperiale che costruisce la propria legittimità dichiarando inevitabile il futuro che essa stessa sta producendo. Non protegge la vita biologica, ma la “funzionalità” dell’individuo nella società complessa. Senza l’AI, il cittadino del 2026 diventa un analfabeta funzionale nel mondo che l’AI stessa ha reso illeggibile.
A fine aprile 2026 OpenAI ha pubblicato un documento intitolato Industrial Policy for the Intelligence Age. Il titolo è sobrio, quasi burocratico ma il contenuto è qualcosa d’altro. Il testo propone un programma in due assi, economia aperta e società resiliente e avanza idee che vanno dalla tassazione del capitale ai fondi sovrani pubblici, dalla portabilità dei benefit lavorativi alla governance democratica dell’allineamento algoritmico. Letto superficialmente, sembra un manifesto socialdemocratico illuminato. Letto con attenzione, è un atto di ingegneria costituzionale mascherato da strategia aziendale.
Il senso fondamentale non è nelle proposte, poche interessanti e nella maggior parte banali. È nel soggetto che le pronuncia. OpenAI, un’azienda privata che controlla uno dei sistemi di intelligenza artificiale più potenti al mondo, si autoposiziona come interlocutore privilegiato della politica democratica globale. Convoca governi, società civile, famiglie, apre workshop a Washington, emette fellowship da centomila dollari. Non chiede semplicemente di essere regolata ma chiede di partecipare alla costruzione del regime regolatorio che la riguarderà.
Questa non è una lobby nel senso classico del termine. È la proposta di un’istituzione che si comporta come se possedesse già autorità e che acquisisce quell’autorità nel momento stesso in cui gli altri la riconoscono partecipando.
La prima mossa del documento è temporale. La transizione verso la superintelligenza, si legge, “è già in corso”. Non è ovviamente una previsione scientifica, è un atto performativo di chiusura del dibattito: il futuro è già scritto nei server di OpenAI. Quello che mi stanno dicendo non è se vogliamo questo futuro, ma soltanto come renderlo meno traumatico.
Questa produzione dell’inevitabilità è la mossa classica dell’impero. Roma non diceva “vi dominiamo”: diceva che la pax romana era la condizione naturale della civiltà e che chi vi si opponeva si opponeva alla civiltà stessa. La teleologia tecnologica di OpenAI funziona in modo analogo: non è una scelta di design tra molte possibilità storiche, ma una direzione obbligata dello sviluppo umano. Chi la contesta non viene trattato come un avversario politico legittimo, ma viene trattato come qualcuno che non ha compreso il processo storico.
Nel documento la parola centrale è safety. Non è giustizia, nemmeno distribuzione del potere, ne sovranità. Safety è un concetto tecnico che presuppone un bene superiore, la stabilità del sistema, amministrato da esperti. Una ottima, condivisibile da ogni soggetto razionale. Chi si oppone alla safety non sembra essere colui che indaga un processo, un conflitto politico ma un soggetto semplicemente irrazionale.
La parola giustizia, puntiamo a quella sociale, implica vincitori e perdenti, interessi incompatibili, conflitti aperti. La parola safety tende invece a chiudere quella possibilità prima ancora che venga formulata.
Il nuovo sovrano che emerge dal documento OpenAI offre qualcosa di sottile e pervasivo: garantisce la funzionalità cognitiva in un mondo diventato troppo complesso per essere governato con gli strumenti della politica tradizionale e le istituzioni che sono ormai bambocci incapaci. Non minaccia direttamente la vita ma rende progressivamente incomprensibile il reale a chi non accede ai suoi strumenti di interpretazione.
Questa è una forma nuova di potere costituente: non occupare il territorio, ma occupare il linguaggio operativo attraverso cui il territorio viene descritto. Il legislatore non può regolare ciò che non sa nominare senza l’aiuto di chi deve essere regolato. Il consulente che spiega a un parlamento come funziona un large language model dipende inevitabilmente dal vocabolario concettuale dell’industria che quel modello lo ha prodotto.
In questo vuoto l’azienda-istituzione non si limita a influenzare le leggi: contribuisce a generarle come sottoprodotto dei propri standard tecnici. Il codice diventa legge, ma un codice che solo pochi possono compilare e i cui effetti normativi emergono senza legislatore visibile e senza responsabilità chiaramente assegnabile. Ma sappimao che tutto questo non è vuoto cosmico; vive in cluster GPU, contratti cloud, reti energetiche, standard API, filiere dei semiconduttori e capacità computazionali che nessun soggetto locale può replicare facilmente. Così l’egemonia cognitiva è inseparabile dalla concentrazione materiale dell’infrastruttura.
Il documento propone poi, tra le altre cose, un Public Wealth Fund: ogni cittadino avrebbe una quota nei profitti dell’AI. Presentato come misura redistributiva, è anche una tecnica di cooptazione del dissenso. Chi possiede una piccola rendita tende a smettere di chiedere chi controlli il modello; la domanda sul potere viene sostituita dalla domanda sulla quota.
Così comparando il welfare di Open AI, non si può non notare che esiste una differenza strutturale rispetto al welfare state novecentesco, ormai oggi consunto. Quel sistema si finanziava attraverso la tassazione del lavoro e manteneva una dipendenza reciproca tra capitale e forza lavoro. Il fondo immaginato da OpenAI si alimenterebbe invece attraverso profitti generati con quantità sempre minori di lavoro umano diretto, spezzando quella leva politica. Non è soltanto una forma di pacificazione sociale; è una trasformazione del rapporto storico tra produzione e rappresentanza.
OpenAI non si oppone allo Stato ma lo ingloba come partner minore in un processo che definisce essa stessa. Il rapporto tra potere tecnologico e potere politico non è di sostituzione ma, come ho scritto più volte, di parassitismo reciproco. Le Big Tech hanno bisogno della legittimità democratica degli Stati per operare senza resistenza sociale. Gli Stati hanno bisogno delle infrastrutture tecnologiche per continuare a funzionare. Ma la simmetria è apparente; chi dipende dall’altro per sopravvivere è diverso da chi dipende dall’altro per ottimizzare.
Ci sono poi altri passaggi contradditori; il doc (link nei commenti) avverte che “il potere e la ricchezza potrebbero concentrarsi invece di distribuirsi più ampiamente”, identificando correttamente la concentrazione come rischio sistemico. Ma non mette realmente in discussione la struttura proprietaria dei modelli frontiera. La concentrazione viene trattata come deriva evitabile, non come prodotto diretto del paradigma hyperscale su cui si fonda l’intero settore.
È come se una compagnia petrolifera pubblicasse un manifesto sul cambiamento climatico senza menzionare il petrolio.
È così da sempre, ogni struttura di potere costituente genera le proprie forme di opposizione. Contro il Leviatano infrastrutturale si sono delineate alcune faglie di resistenza: la secessione dai dati, la difesa della conoscenza situata contro l’astrazione universale, la costruzione di strumenti open source, il rifiuto della teleologia tecnologica. Queste forme di resistenza hanno il merito di esistere, compresi i mille manifesti che si leggono anche in questi giorni. Ma nessuna è priva di paradossi.
La secessione dai dati, il rifiuto di alimentare i modelli, non degrada necessariamente il sistema: spesso lo purifica, eliminando i nodi più rumorosi. Chi si disconnette non sabota la macchina ma diventa un’anomalia statistica che il sistema può ignorare o usare per raffinare i propri modelli di esclusione. L’eremitismo digitale non è ribellione, è solo manutenzione.
L’open source radicale è la resistenza più concretamente praticata e straordinaria degli ultimi decenni, ma va guardata con occhi disincantati. I modelli aperti, tranne poche eccezioni, oggi esistono spesso come sottoprodotto della competizione tra grandi attori industriali. Una zona temporaneamente autonoma di calcolo che gira su chip prodotti da una supply chain globale resta dipendente dall’infrastruttura che pretende di superare.
Il problema è più profondo; se il potere Big Tech si installa nel modo in cui nominiamo, categorizziamo e interpretiamo il possibile, allora la resistenza non può essere soltanto comportamentale o tecnologica. Deve produrre linguaggi alternativi dotati di forza politica propria.
La tentazione più ovvia, di fronte a un potere che si installa nell’infrastruttura cognitiva, è rispondere con un potere equivalente: costruire un soggetto alternativo abbastanza grande, abbastanza coeso, abbastanza autorevole da occupare lo stesso spazio. Un contro-Leviatano. Questa soluzione però riproduce la logica che pretende di combattere.
Il Big Tech non è pericoloso soltanto per i valori che promuove. È pericoloso perché pretende di essere l’unico soggetto capace di definire il reale e stabilire i termini del dibattito. Ma un contro-Leviatano con valori migliori avrebbe la stessa forma: sostituirebbe una centralizzazione con un’altra, un monopolio ermeneutico con un secondo monopolio ermeneutico.
La critica al potere tecnologico deve essere coerente con se stessa. Se il problema è la logica costituente centralizzata, il soggetto che pretende di definire il possibile per tutti, allora la risposta non può essere un soggetto alternativo che ambisce alla stessa funzione.
Esistono già, e non da oggi, soggetti che resistono al Leviatano infrastrutturale senza ambire a sostituirlo. Comunità che praticano forme di vita meno mediate. Teologi che pensano la tecnica come questione spirituale e non come problema di ottimizzazione. Giuristi che lavorano su categorie di sovranità dei dati fuori dal vocabolario della safety. Programmatori che costruiscono strumenti senza logica estrattiva. Movimenti contadini che difendono conoscenze situate contro l’astrazione universale dei modelli globali. Istituzioni educative che insistono sull’irriducibilità dell’esperienza non mediata.
Questi soggetti hanno in comune una caratteristica che tende a essere interpretata come debolezza: sono incompleti perchè non coprono il campo, non parlano una lingua unica e non convergono in un progetto politico centralizzato. Insomma non hanno un centro. La tentazione è considerarli frammenti in attesa di unificazione. Ma questa lettura è già catturata dalla logica che pretende di criticare, perché assume che la forma-soggetto unificata sia l’unica forma politicamente efficace. L’incompletezza non è un deficit: è una condizione costitutiva e, in questo contesto, una risorsa.
Un’ecologia federata di soggetti incompleti non richiede accordo sui fini ultimi. Richiede protocolli di interoperabilità che permettano a nodi diversi di riconoscersi e cooperare senza convergere in un’unica autorità. È la differenza tra federazione e coalizione: una coalizione nasce contro qualcosa e spesso si dissolve dopo; una federazione di soggetti incompleti non ha un nemico comune come unico principio organizzativo. Ha la capacità di coesistere nella differenza senza che nessuno possieda il protocollo generale.
Il Big Tech, è vulnerabile proprio a questa forma; la sua forza dipende dall’universalismo: dalla capacità di presentarsi come unico linguaggio disponibile, unica grammatica del possibile. Il documento OpenAI chiede implicitamente che governi, sindacati, società civile e famiglie convergano nella stessa conversazione e accettino gli stessi standard cognitivi.
Un’ecologia plurale di soggetti che parlano linguaggi diversi, che mantengono forme di vita non completamente ottimizzabili e che preservano zone irriducibili alla metrica non sfida frontalmente quella conversazione rende parziale e le sottrae il monopolio dell’universale.
Le comunità che ci provano, Papa Leone XIV, i vescovi delle altre religioni in questo quadro, non sono i candidati a guidare un contro Big Tech. Ma sono qualcosa di più interessante e più fragile insieme: un nodo dentro un’ecologia che non controllano completamente, con una rete capillare che può ancora scegliere di non adottare integralmente il vocabolario tecnocratico che le sta colonizzando dall’interno e con un’autorità simbolica che deriva non dalla scala del calcolo ma dalla capacità di descrivere dolore, desiderio e destino.
Non ci si deve sostituire al Big Tech perchè cosi facendo ci si sostituirebbe solo alla forma del potere che si pretende di criticare. Il suo potere concentra energia, calcolo, dati e standard dentro pochi centri interoperabili. Un’ecologia federata funziona invece in modo frattale: non occupa tutto lo spazio e non pretende di unificarlo. Cerca piuttosto di mantenere ovunque forme di vita, linguaggi e relazioni che non possano essere completamente aggregate.
La storia non è me contro te ma è la capacità politica di rendere questi soggetti incompleti capaci di riconoscersi senza unificarsi, di interoperare senza convergere e di moltiplicare le descrizioni del reale senza trasformarne una sola nel nuovo standard universale.
Non un nuovo centro. Ma abbastanza vita irriducibile da impedire a qualsiasi centro di diventare il solo linguaggio possibile.
Immagine. La nona ora, Maurizio Cattelan, 1999. Non è la fine dell’autorità, ma il suo slittamento. Non risiede più nelle istituzioni, ma nelle architetture delle Big Tech.