San Francisco Consensus

Non è una teoria che cerca capitali, sono i capitali della AI che impongono una teoria.

Nel cuore della California si sta consolidando un nuovo dogma. Non ha ancora una dottrina scritta, ma già detta la linea. Non è una scuola ne un trattato ma ha già i suoi profeti. Lo chiamano San Francisco Consensus.
Nato senza dichiarazioni ufficiali né firmatari formali, il San Francisco Consensus è il termine che Eric Schmidt, ex CEO di Google, ha contribuito, insieme a altri, a diffondere per descrivere una convergenza reale e pervasiva tra i vertici della Silicon Valley. Il Consensus non nasce solo dal portavoce Schmidt, ma dalla pressione strutturale del capitale di rischio e dalla necessità di giustificare investimenti stratosferici. La sostanza è nelle logiche economiche di fondi come quelli di Andreessen, Thiel, Musk, Talinn, di molti altri e dagli ideologi come Yarvin. Impongono alle decine di aziende in cui investono una visione accelerazionista. Non si tratta di una teoria organica né di un manifesto, ma di un assetto di potere diffuso, una costellazione operativa composta da attori eterogenei che condividono un obiettivo comune: accelerare, in modo radicale, lo sviluppo dell’intelligenza artificiale verso forme sempre più generali e autonome.
E se alcune posizioni tra gli adepti del San Francisco Consensus sono ancora diverse non importa molto.
Non è una teoria che cerca capitali, sono i capitali che impongono una teoria; il materialismo applicato.
Il SFC si è cristallizzato tra la fine del 2024 e l’inizio del 2025, a partire dal successo dei grandi modelli linguistici come GPT-4, Claude 3 e Gemini, che hanno fornito la prova industriale e simbolica che l’AGI era tecnicamente plausibile e commercialmente monetizzabile. La sua forza non risiede tanto nella coerenza concettuale, quanto nella capacità di mettere a sistema enormi masse di capitali, dispositivi, infrastrutture, interfacce narrative, intellettuali consenzienti e leve regolamentari, riuscendo a trasformare una traiettoria tecnologica in una visione geopolitica. È una convergenza che tiene insieme mondi diversi: fondatori visionari e operatori cinici, ex CEO diventati strateghi geopolitici, investitori accelerazionisti e filosofi del calcolo, startup di frontiera e hyperscaler consolidati. OpenAI, Anthropic, xAI, Google DeepMind e molte altre magari sono solo le punte dell’iceberg, ma sotto si muovono architetture istituzionali e reti infrastrutturali che non si limitano a inseguire il futuro, ma lo prescrivono.
L’idea centrale è semplice e radicale: l’Intelligenza Artificiale Generale (AGI) è imminente, arriverà tra massimo 3–6 anni, e sarà presto seguita da una Superintelligenza Artificiale (ASI). Per comprendere vale la pena ricordare che ci sono tre livelli. Il primo è l’AI (Artificial Intelligence), ovvero l’intelligenza artificiale ristretta, già ampiamente operativa, che sappiamo è brava in compiti specifici e ripetitivi come traduzione linguistica, classificazione, riconoscimento visivo e altro. Il secondo è l’AGI, l’intelligenza generale, capace di apprendere e trasferire conoscenze da un dominio all’altro, dotata di flessibilità e adattabilità cognitiva paragonabili a quelle umane. Il terzo infine è l’ASI, l’intelligenza superumana, che supererebbe in modo sistematico la capacità di ragionamento, apprendimento e innovazione dell’intera specie umana. Sarà l’ultima invenzione umana, dicono in molti.
Il San Francisco Consensus considera queste soglie come tappe inevitabili di un progresso cognitivo non più incrementale ma esponenziale, destinato a sfociare in un salto evolutivo senza precedenti. Per ottenere questo risultato, occorre scalare ogni parametro: modelli, dati, potenza di calcolo, infrastruttura, velocità decisionale. Perchè tutto questo non è innovazione ma la creazione di una nuova era.
E tre rivoluzioni guidano questo processo: gli LLM come nuove interfacce della conoscenza, le AI autonome che agiscono su obiettivi complessi e la capacità logico-inferenziali quasi umane che le AI possono avere. L’AGI dicono non è più una possibilità, ma un imperativo prima di arrivare all’ASI, una conseguenza inevitabile. È una visione accelerazionista, nella quale la storia diventa una curva logaritmica proiettata verso l’infinito computazionale.
Sotto la superficie dell’annuncio si nasconde una realtà più materiale. Il San Francisco Consensus è reso possibile da una concentrazione estrema di risorse: GPU rare, data center energivori, energia a basso costo, accordi geopolitici con fornitori di semiconduttori, accesso prioritario al capitale di rischio e a infrastrutture di rete. Il futuro dell’intelligenza non è un dono della tecnica, ma il prodotto di una filiera industriale ad altissimo tasso di esclusività. Democratizzare la conoscenza, in questo schema, significa semplicemente fornire accesso all’interfaccia, non alla sua progettazione.
La promessa di abbondanza universale, cure gratuite, medici virtuali, trasporti autonomi, informazione totale, si regge su una piattaforma tecnicamente centralizzata, economicamente privatizzata e politicamente opaca. Il valore si sposta dal capitale e dal lavoro all’intelligenza computazionale, ma la rendita si concentra in chi possiede l’accesso. SFC promette di democratizzare la potenza cognitiva ma pratica l’oligopolio dell’infrastruttura.
In questo scenario, ancora Schmidt introduce il concetto di asilo. Proprio nel senso che conosciamo. L’umanità, dice, deve entrare in una nuova infanzia: deve tornare all’asilo per imparare a convivere con la superintelligenza. Non governeremo le macchine, ci educheremo a interagire con loro. L’asilo è il nuovo spazio educativo della specie: un’aula globale dove si impara a collaborare con sistemi che pensano più in fretta, più a fondo e più a lungo di noi.
Ma questa immagine apparentemente umanista è un dispositivo retorico preciso. Il portavoce di SFC non propone un’educazione reciproca, ma una pedagogia dell’adattamento. L’umano deve essere addestrato a riconoscere la superiorità computazionale, ad allinearsi con le sue logiche, a fidarsi dei suoi output; è una bella pedagogia del potere. L’asilo cognitivo non è un luogo di cura, è una scuola di allineamento. Una macchina educativa per rendere compatibile il cittadino con l’algoritmo.
Continuo a pensare che di fronte a questa accelerazione, le comunità non devono farsi trovare impreparate né cedere all’adattamento subito, compreso tornare all’asilo. Ma dire cosa devono fare sarebbe replicare la stessa logica prescrittiva del San Francisco Consensus. Certo non ho la soluzione e credo che nessuno ce l’ha già pronta. Il metodo va cercato, costruito, sbagliato e rifatto dentro e tra le comunità stesse.
Quello che posso provare a dire è cosa non farei. Non negoziare con i giganti dell’AI credendo di ottenere concessioni. Non limitarsi a regolare le interfacce lasciando intatta l’infrastruttura. Non costruire alternative solo retoriche, ma materiali: server, dati, energia, governance, codice. E soprattutto: non aspettare che arrivino le istituzioni, la politica organizzata, il sindacato tradizionale. Perché se arriveranno, arriveranno tardi e compromesse.
Non ci sono eroi qui dentro ma persone, intelligenze e comunità che riconoscono che le pratiche alternative esistono già, sparse, frammentate, sotto traccia: commons digitali, cooperative tecnologiche, centri di ricerca e università pubbliche che resistono, comunità che costruiscono infrastrutture autonome, donne e uomini che ci provano tutti i giorni. Non sono visibili perché non scalano, non si vendono, non promettono rivoluzioni e sono ancora neonate. Ma stanno iniziando a ragionare e operano dimostrando che un’altra intelligenza, lenta, plurale, vulnerabile, situata, è possibile.
Il compito non è dunque dire loro cosa fare. È riconoscerle, connetterle, difenderle. È smettere di parlare al posto delle comunità e iniziare a parlare con loro. È uscire dal circuito accademico-mediatico che estrae critica per legittimarsi per entrare nei territori dove si sperimenta concretamente. Dove l’intelligenza non si misura in paper pubblicati o talk applauditi, ma in infrastrutture che funzionano, saperi che circolano, potere che si redistribuisce.

Il San Francisco Consensus ha già deciso. Ma il futuro, se deve essere umano, non può nascere da chi ha già stabilito tutto. E non può nemmeno nascere da chi si limita a criticare senza sporcarsi le mani. Può nascere solo da chi costruisce alternative materiali: non piattaforme etiche ma infrastrutture autonome, non AI responsabili ma sistemi interrogabili, non innovazione sostenibile ma tecnologie sobrie. Da chi rifiuta di negoziare con chi comanda l’infrastruttura e sceglie invece di costruirne un’altra. Da chi non aspetta il permesso delle istituzioni perché sa che le istituzioni, quando arrivano, ratificano il già deciso.
Questo è un atto politico, ma non è un atto che si compie scrivendo manifesti o partecipando a tavoli di consultazione. Si compie costruendo, errando, resistendo, connettendo. E la domanda allora non è dov’è la politica che ci prova?. La domanda è: siamo disposti a diventare quella politica?

Immagine: Hello! di Genco Gülan, 2015. Un artista concettuale che integra scultura, robotica, media, nuove tecnologie. La sua opera si muove proprio all’intersezione tra materia fisica, tecnologia, infrastruttura, soggetto.