Per due volte, nel giro di pochi giorni, la casa di Sam Altman è entrata nella cronaca americana. Prima un attacco incendiario contro la proprietà, poi un secondo episodio con colpi d’arma da fuoco diretti verso l’abitazione, secondo quanto riportato da diverse testate statunitensi. Intorno al caso si sono subito sovrapposte le letture abituali: il gesto di uno squilibrato, l’odio anti-tech, il fanatismo contro il progresso. Ma quasi nessuno ha collegato questi episodi a un dato più ampio e politicamente rilevante: negli Stati Uniti l’intelligenza artificiale sta smettendo di essere solo una questione industriale e sta diventando una questione sociale.
Secondo i sondaggi citati da The Economist, una quota crescente di politici americani ritiene che l’AI sarà uno dei temi centrali delle elezioni del 2028. Gli elettori statunitensi risultano molto più scettici rispetto ad altri paesi avanzati. Sette americani su dieci pensano che l’intelligenza artificiale finirà per danneggiare le opportunità di lavoro, con un aumento netto rispetto all’anno precedente. Nello stesso tempo cresce l’opposizione locale ai nuovi data center: comitati di cittadini, amministrazioni territoriali e comunità contestano consumo energetico, acqua, rumore, impatto urbanistico e incentivi pubblici, anche quando il rincaro delle bollette dipende in larga misura da altri fattori.
Provo allora a non leggere questi episodi come fatti isolati. Provo a leggerli come sintomi, certo ancora grezzi, confusi, talvolta patologici, di una trasformazione in corso nel modo in cui le società percepiscono il potere tecnologico. Non mi interessa la cronaca nera. Stiamo entrando nella fase in cui l’AI smette di essere solo ammirata come grande luccicosa e utile tecnologia e inizia a essere socialmente contestata.
La prima tentazione è quella di leggere questi episodi come reazione anti-tecnologica. Un luddismo aggiornato, un panico morale, la solita incomprensione popolare di fronte all’innovazione. Ma questa lettura è sbagliata, sbagliata perché i dati raccontano una storia diversa.
Sette americani su dieci pensano che l’AI danneggerà l’occupazione. Non sono sette su dieci che pensano che l’AI sia maligna; la distinzione è fondamentale. La critica non è ontologica, non è questa tecnologia è sbagliata ma è distributiva: chi ne beneficia, chi paga il costo e chi decide.
Brian Merchant, nel suo lavoro sul contraccolpo tecnologico, ha sostenuto che il settore AI ha prodotto una gigantesca bolla speculativa raccontando simultaneamente salvezza e apocalisse, accumulando capitale e centralità politica in un unico movimento retorico. L’ostilità che ora esplode sarebbe quindi la risposta, distorta, certo, ma non irrazionale, a una concentrazione di potere percepita come impunita e non negoziabile.
I
soliti nomi, come eroi, dei della mitologia grega. Dario, Demis, Elon, Mark, Sundar, Satya, Jensen, Sam, gli “AI gods”. Non è un titolo ironico, è una descrizione fenomenologica: decidono, in laboratori chiusi, in board meeting riservati, in incontri urgenti con il segretario al Tesoro americano, quale futuro sarà costruito e a quali condizioni. Il resto assiste.
Vi ricordate gli anni delle nuvole, il cloud, dove il materiale del digitale diventava etereo, pulito, paradisiaco? Qualcosa che accadeva altrove, in server farm lontane, in processi computazionali invisibili. Poi sono arrivati i data center, i blackout locali, il consumo d’acqua industriale, le bollette in salita, i salari compressi, la precarietà cognitiva di chi vede il proprio mestiere dissolversi in un prompt.
L’opposizione popolare ai data center è in forte crescita, certo l’AI ha poco o nulla a che fare con l’aumento dei prezzi dell’elettricità e il che è probabilmente vero, ma è anche probabilmente irrilevante. Perché la percezione pubblica non funziona per causalità lineari. Funziona per prossimità e per narrazione. Il data center è lì, la bolletta è alta, il collegamento si fa da solo.
L’attacco alla casa di Altman rimette la materia al centro. OpenAI è una rete di investitori, ingegneri, cloud provider, alleanze statali, capitale geopolitico distribuito su tre continenti. È impossibile da afferrare, impossibile da bersagliare, impossibile da contestare nelle sue forme reali. Resta la casa, resta il corpo del manager. Quando il potere si smaterializza, la protesta cerca ancora pietra e cancello.
Per anni i leader del settore hanno alimentato narrazioni millenaristiche. L’AI cambierà tutto, l’AI può distruggere il mondo, l’AI sostituirà molti lavori, l’AI va affidata a pochi responsabili perché nelle mani sbagliate è una minaccia esistenziale. E giù valangate di manifesti etici e politici. Ma questo lessico, apocalittico, urgente, straordinario, non è nato per caso. È stato costruito deliberatamente, perché serviva; serviva ad attrarre capitali, a giustificare valutazioni astronomiche, a posizionarsi come attori indispensabili nella governance del futuro.
Se martelli la società con narrazioni millenaristiche per un decennio, non puoi stupirti se una parte di essa reagisce in modo millenaristico. Il lessico dell’estinzione umana, il lessico della tecnologia come forza sovraumana e incontrollabile, lo hanno introdotto gli AI gods. Hanno costruito la narrativa della propria pericolosità. Poi si sono stupiti che qualcuno li credesse pericolosi.
I sistemi complessi producono diffusione del potere. Il diffuso è difficile da contestare, difficile da visualizzare, difficile da odiare. La rabbia ha bisogno di un volto singolo. John Rockefeller per il petrolio. Mark Zuckerberg per i social. Sam Altman per l’AI.
Sembra una distorsione irrazionale della realtà, è un meccanismo antropologico antico quanto il potere stesso. Il capro espiatorio serve a contenere la complessità, a dare alla tensione sociale un bersaglio praticabile. Altman non è OpenAI, OpenAI non è l’AI e l’AI non è la crisi occupazionale. Ma il filo narrativo si tesse da solo, e tesse un indirizzo.
Non succede solo nella Silicon Valley; il Wall Street Journal ha documentato il rancore crescente tra lavoratori tech normali e il ceto AI iperpagato. Non è soltanto popolo contro élite; è tecnici contro nuovi sacerdoti del capitale cognitivo. La reazione violenta nasce anche dentro, nelle stesse aziende, negli stessi quartieri. I saliscendi di San Francisco così diventano un laboratorio della frattura intra-classe
Ma qui vorrei introdurre un altro aspetto: gli attacchi alla casa di Altman non sono il linguaggio dei politicamente organizzati. Sono il linguaggio dei politicamente esclusi.
Non esistono, oggi, sedi robuste e credibili per negoziare collettivamente automazione, tassazione del capitale AI, uso militare dei modelli, impatti sull’occupazione. Il dibattito regolatorio si svolge tra aziende, governo, e un ristretto numero di esperti cooptati. Il resto assiste, senza strumenti, senza rappresentanza, senza voce riconosciuta nel processo. Quando non esistono canali efficaci per il conflitto, una parte del conflitto scivola verso atti spettacolari e simbolicamente potenti ma praticamente inutili. La molotov è spesso il linguaggio di chi non ha altra parola riconosciuta. Non perché sia forte, ma perché mancano le alternative.
C’è chi con eleganza liberale, propone la soluzione degli utenti fidati: accesso ai modelli più potenti riservato a pochi soggetti certificati, in attesa che si costruisca un sistema regolatorio adeguato. È una proposta che crea un’economia a due velocità, concentra ulteriormente potere e ricchezza, offre opportunità di lobbying immense, e non tocca minimamente il problema della rappresentanza democratica nel processo decisionale.
Non c’è, per ora, Robespierre in agguato, non c’è Terzo Stato organizzato. Ma c’è un simbolismo che vale la pena leggere.
Un tempo si assaltavano fabbriche, municipi, banche, luoghi fisici dove il potere si esercitava visibilmente, dove il conflitto aveva una topografia chiara. Oggi la piattaforma è invisibile, il modello è nel cloud, il capitale è distribuito su strutture giuridiche opache in Delaware, nelle Cayman, in Irlanda. Non c’è fabbrica da occupare, come non c’è banca da assediare; restano le case, restano i corpi e gli indirizzi dei manager.
Sarebbe un errore liquidare questi episodi come follia individuale, come sarebbe un errore opposto trasformarli in prefigurazione rivoluzionaria. Credo siano le manifestazioni di un conflitto reale che non ha ancora trovato la sua forma politica adeguata. Sono il rumore di un sistema che cerca, male, confusamente, un linguaggio per dire qualcosa che le istituzioni esistenti non gli consentono di dire. Mentre la democrazia non regge.
La storia delle grandi innovazioni industriali americane, Rockefeller, Ford, Carnegie, conosce bene questa sequenza. Prima c’è la fase dell’ammirazione: uomini straordinari costruiscono cose straordinarie, e il pubblico è abbagliato. Poi c’è la fase del potere: quegli stessi uomini accumulano influenza che va ben oltre la loro industria, e il pubblico inizia ad avere paura. Poi c’è la fase della contestazione: il conflitto assume forme politiche, sociali, talvolta violente, finché i governi non intervengono per ridisegnare le regole.
Siamo nella fase di transizione tra la seconda e la terza. Il momento Mythos, ma il momento ha radici più profonde di un modello di Anthropic particolarmente capace di trovare vulnerabilità software.
Ha radici in un decennio di promesse non mantenute, di ricchezza concentrata, di lavoro precarizzato, di narrazioni apocalittiche usate strumentalmente, di governance opaca presentata come inevitabile. Ha radici in un sistema democratico che non ha trovato e forse non ha cercato abbastanza le forme adeguate per includere la società in decisioni che la riguardano profondamente.
Gli attacchi alla casa di Sam Altman sono gesti sbagliati, inutili d condannare. Ma leggere solo questo sarebbe un errore di prospettiva. Quello che ci dicono, come sintomo, come segnale, come rumore di fondo, è che stiamo entrando in un territorio nuovo.
Il potere AI non viene più ammirato automaticamente. Inizia a essere contestato. Male, confusamente, talvolta patologicamente. Ma contestato. E la contestazione, quando non trova forme politiche adeguate, trova altre forme.
Non credo si tratti solo di rabbia distributiva, chi guadagna, chi perde. Non si tratta solo di esclusione democratica, chi decide, chi assiste. Si tratta di qualcosa di più radicale: la sensazione, diffusa e difficile da articolare, che il futuro stesso sia diventato una proprietà privata. Che sia stato acquistato, recintato, ottimizzato per altri. Gli Ai gods costruiscono, in laboratori chiusi, i modelli che determineranno come si lavora, come si cura, come si fa guerra, come si governa. Il resto dell’umanità non è stata consultata. Le è stato detto che andrà bene, che i benefici si diffonderanno, che il progresso è inevitabile e la resistenza è inutile.
Chi attacca la casa di Altman non sta solo cercando un bersaglio per la propria rabbia. Sta cercando l’indirizzo di un futuro che sente di non poter più abitare.
Hanno cercato l’indirizzo del potere. E il fatto che non riescano a trovarlo nella sua forma reale, diffusa, computazionale, giuridicamente opaca, non significa che abbiano smesso di cercarlo.
Immagine: Gordon Matta-Clark, Splitting (1974). Taglia verticalmente una casa suburbana, aprendola in due. Non esplode nulla, ma compie un gesto quasi terroristico sulla domesticità americana.