Il patto con il diavolo o con la AI?

È il nuovo asse della geopolitica. Nel momento in cui gli Stati percepiscono di aver perso la capacità di leggere la complessità, terrorismo, pandemie, catene del valore globali, conflitti ad alta intensità, infrastrutture critiche, flussi migratori, volatilità finanziaria, chiedono aiuto a un’azienda che non considera la loro crisi un incidente, ma la conferma finale che la democrazia rappresentativa non è più adatta alla gestione del mondo contemporaneo.
Leggevo nei giorni scorsi la biografia di Alex Karp scritta da Michael Steinberg e cercavo di capire perché Palantir avesse scelto proprio Steinberg. Karp appare come una figura costruita per disorientare: un intellettuale cresciuto tra Francoforte e Stanford, che indossa, per sua ammissione, la postura del disadattato filosofico mentre guida una delle aziende più pericolosamente integrate nell’apparato di sicurezza occidentale. Palantir voleva un libro che legittimasse uno dei dispositivi più potenti della sorveglianza contemporanea e ci è riuscito, Per questo inizio questo interminabile scritto, e per chi vorrà leggerlo me ne scuso fin d’ora, partendo da Karp: non perché sia un personaggio più interessante degli altri attori del tecno‑potere, ma perché incarna in forma quasi chirurgica il punto di rottura del nostro tempo. Parlare di Karp non significa inseguire un protagonista, ma mettere a fuoco il luogo in cui la tecnologia smette di essere industria e diventa infrastruttura di governo, in cui un’azienda privata assume la forma di un dispositivo di Stato, e in cui la politica si abitua all’idea di delegare il proprio sguardo a un soggetto che non crede nella democrazia che lo convoca.
Lui, come Thiel, come Mencius Moldbug, si presentano come gli outsider della Silicon Valley, ma ne incarnano la conclusione logica: non più la tecnologia che seduce i cittadini, ma quella che entra nello Stato. L’immagine di Karp che cammina a passo rapido nei corridoi del Pentagono con il suo stile disordinato è parte della stessa operazione simbolica: mostrarsi distante dall’industria che lo ha generato per rendere accettabile la funzione che la sua azienda svolge. Un apparato che non si limita a raccogliere dati, ma li intreccia in narrazioni operative, che non osserva il mondo, ma lo ordina, che non analizza, ma prescrive traiettorie di intervento. Palantir non aiuta a decidere ma ridisegna il senso entro cui una decisione diventa pensabile. Non offre informazioni ma costruisce mappe di significato che definiscono cosa è rilevante, cosa è rumore, cosa è sospetto, cosa è minaccia. È un motore di correlazioni che trasforma la complessità in scenario operativo e traduce l’ambiguità del mondo in una serie di punti, archi, nodi, pattern, intensità. E nel momento in cui lo fa, diventa l’interfaccia cognitiva attraverso cui lo Stato percepisce se stesso e ciò che lo circonda.
Un caso descritto nel libro chiarisce la portata di questa trasformazione: l’utilizzo di Palantir da parte del governo ucraino durante l’invasione russa del 2022. Qui la tecnologia non si è limitata a fornire analisi, ma ha ridisegnato in tempo reale la mappa operativa del conflitto. Le piattaforme Palantir hanno integrato flussi geospaziali, immagini satellitari commerciali, intercettazioni OSINT, dati sul posizionamento delle truppe e stime probabilistiche dei movimenti futuri, producendo scenari che non erano semplicemente supporti strategici, ma vere e proprie ipotesi di realtà. In un contesto in cui l’informazione era frammentata, caotica, discontinua, Palantir è diventata la lente dominante, quella che stabiliva cosa fosse significativo e cosa superfluo, cosa avesse valore operativo e cosa fosse rumore. L’Ucraina non ha chiesto un software: ha chiesto un modo di vedere. E questo caso dimostra come, nel momento di massima vulnerabilità, uno Stato sia disposto a integrare un attore privato nella propria percezione del mondo.
Un secondo caso, molto più controverso, mostra l’altra faccia della stessa logica: l’adozione di Palantir da parte del Regno Unito per la gestione dei flussi migratori e del controllo delle frontiere. Qui la tecnologia non è stata usata per coordinare operazioni militari o integrare fonti informative frammentate, ma per costruire profili di rischio su individui e gruppi attraverso correlazioni estratte da dati amministrativi, movimenti finanziari, associazioni sociali, pattern comportamentali, incrociati con modelli predittivi proprietari. Non si trattava di identificare minacce specifiche, ma di anticipare possibili deviazioni future: un campo in cui l’incertezza diventa sospetto e la probabilità diventa criterio d’intervento.
In questo contesto, Palantir ha fornito allo Stato non una mappa del presente, ma un’immagine del futuro sufficientemente persuasiva da orientare decisioni che avrebbero richiesto un dibattito politico aperto: chi può entrare, chi può restare, quali comunità vengono percepite come rischio sistemico, quali soglie di vulnerabilità giustificano un intervento. È qui che la tecnologia si trasforma in un argomento politico mascherato da neutralità: ciò che dovrebbe essere deliberazione democratica diventa un output calcolato. E il confine tra governance e sorveglianza si assottiglia fino quasi a scomparire. Un’infrastruttura che pretende di vedere al posto delle istituzioni e così facendo acquisisce una forma di autorità che nessun CEO, fino a questo momento storico, aveva mai pensato di rivendicare.
Karp parla spesso della fragilità delle democrazie liberali, della loro incapacità di affrontare il mondo com’è diventato, della necessità di un supporto cognitivo che colmi la distanza tra ciò che le istituzioni dovrebbero sapere e ciò che realmente riescono a vedere. Ma dietro questa retorica della responsabilità si nasconde una diagnosi molto più radicale: l’idea che lo Stato moderno sia ormai troppo lento per governare l’epoca che abita. Palantir non nasce per assistere le democrazie, ma per sopravvivere alla loro lentezza; e in questa tensione tra dichiarata fedeltà istituzionale e convinzione post Stato si colloca la natura non ambigua ma rivelatrice di ciò che Karp rappresenta.
Perchè forse la trasformazione più radicale del nostro tempo non riguarda l’ascesa delle tecnologie in sé, ma la mutazione del rapporto tra Stati e chi detiene le infrastrutture cognitive. Per tutta la prima stagione del digitale le istituzioni hanno subito l’impatto delle piattaforme come un urto improvviso: Facebook, Google, YouTube, Twitter si sono installati nello spazio pubblico approfittando dell’impreparazione dei governi, che li percepivano come anomalie da contenere o come innovazioni da comprendere, senza immaginare che avrebbero riscritto il senso del discorso democratico. Il potere si è riformattato davanti ai loro occhi senza che gli Stati avessero gli strumenti per comprenderlo e quando la consapevolezza è arrivata, lo ha fatto come una forma di allarme, non come una capacità di governo.
La seconda ondata tecnologica, quella dei modelli linguistici generalizzati, non ha sostituito la prima, ma si è sedimentata su di essa, creando una stratificazione di interventi sulla capacità di giudizio che le istituzioni democratiche faticano ancora a riconoscere come campo politico unitario. Se le piattaforme sociali avevano già cominciato a operare sul livello dell’attenzione, decidendo quali contenuti meritassero di entrare nel campo percettivo, quali associazioni rafforzare, quali memorie riattivare, i modelli linguistici hanno introdotto una modalità diversa di mediazione cognitiva: non più selezione e cura di flussi, ma sintesi personalizzata e generazione in linguaggio naturale. La scorciatoia cognitiva esisteva già, ora è semplicemente più fluida, più invisibile, più integrata nella forma stessa della conversazione. È più veloce chiedere che cercare e è più semplice accettare una sintesi che costruirne una propria. Chi delega va più veloce e chi resiste resta indietro. Certo ci sono delle eccezioni ma quante sono?
Nel frattempo, un’altra trasformazione procede in parallelo come estensione logica della stessa infrastruttura. I sistemi di governance predittiva, politica algoritmica, credit score, profilazione migratoria, allocazione automatizzata di risorse pubbliche, non rappresentano una mutazione silenziosa verso un nuovo target (gli Stati invece dei cittadini), ma la stessa logica applicata a un livello istituzionale. Sono alimentati dagli stessi modelli, dalle stesse architetture, dagli stessi dati. Se i modelli linguistici riorganizzano la percezione individuale, i sistemi predittivi riorganizzano quella istituzionale. Non c’è un momento in cui la tecnologia smette di agire sui cittadini per cominciare ad agire sugli Stati: le due dinamiche si rinforzano reciprocamente, creando, ma sono pronto per ascoltare altre interpretazioni e capire meglio, un campo unico di intervento sulla capacità, individuale e collettiva di leggere il mondo.
È qui che si colloca Palantir, ed è qui che il quadro si rovescia: non più una tecnologia che sorprende le istituzioni, ma una tecnologia che le istituzioni cercano attivamente. Gli Stati non subiscono Palantir come hanno subito Facebook e tutta la compagnia; la chiamano, la desiderano e la integrano. E qui credo si apre un nodo decisivo: le democrazie hanno sempre assorbito elementi tecnocratici, come le banche centrali, autorità indipendenti, comitati scientifici, senza mai collassare, ma non avevano mai esternalizzato la propria facoltà di percezione. Affidare questa funzione a un soggetto esterno non è un ampliamento tecnico: è una trasformazione costituzionale. La inseriscono nel cuore dei processi decisionali, spesso senza riconoscere che questa scelta si basa su una contraddizione interna devastante: per salvare se stessi, si rivolgono a un attore che ritiene superata la forma stessa dello Stato moderno.
È il nuovo asse della geopolitica. Nel momento in cui gli Stati percepiscono di aver perso la capacità di leggere la complessità, terrorismo, pandemie, catene del valore globali, conflitti ad alta intensità, infrastrutture critiche, flussi migratori, volatilità finanziaria, chiedono aiuto a un’azienda che non considera la loro crisi un incidente, ma la conferma finale che la democrazia rappresentativa non è più adatta alla gestione del mondo contemporaneo. L’ideologia che sostiene Palantir, maturata negli anni della collaborazione tra Karp e Thiel e nutrita da un’interpretazione radicalmente elitaria dell’efficienza, afferma da sempre che l’Occidente si regge su istituzioni ormai incapaci di esercitare il proprio mandato. Gli Stati, chiedendo aiuto, convalidano esattamente questa diagnosi.
In questo scenario, Palantir non sostituisce lo Stato, entra nelle sue fondamenta. Non conquista il potere politico, quello lo lascia a Trump perchè ormai è inutile o quasi. Prende il posto della sua facoltà più preziosa, quella che nessuna riforma burocratica può delegare senza dissolversi, la capacità di offrire spazio e tempo perchè le comunità possano interpretare il mondo e decidere. Se gli Stati chiedono a Palantir è perché hanno perso la capacità di leggere la complessità e così facendo aprono un conflitto di fondo che non può essere ignorato. La democrazia, per design, è lenta, ridondante, conflittuale, deliberativa; è costruita per integrare voci discordanti, produrre compromessi, assorbire tensioni. La tecnocrazia, invece, è costruita per ridurre il rumore, semplificare la decisione, accelerare il giudizio. Non si tratta di due modalità alternative, ma di due logiche incompatibili.  Non è una deviazione del sistema, è il sistema stesso: ogni volta che uno Stato sceglie l’efficienza predittiva, sceglie contro la democrazia.
Rendere esplicito questo scambio, efficienza o sovranità, è la vera eresia contemporanea, perché costringe a riconoscere che non si può avere entrambe. O almeno non per gli Stati. La democrazia è in crisi da molti anni e per molte ragioni e non perché funziona male: per funzionare, deve essere meno efficiente di qualunque modello centralizzato di correlazione e previsione. Il paradosso è che proprio questa inefficienza, questa lentezza, questa capacità di contenere il conflitto anziché eliminarlo, è ciò che la rende superiore come forma politica. Ma nel momento in cui le istituzioni interiorizzano l’idea che la complessità sia ingestibile senza un supporto tecnico esterno, la scelta si ribalta. E allora l’efficienza si presenta come una salvezza, quando in realtà è la forma più elegante della rinuncia.
Delegare la lettura del mondo a un apparato tecnico significa trasformare decisioni politiche, sempre contestabili, esposte al dissenso, vulnerabili al conflitto, in necessità tecniche presentate come inevitabili. È un meccanismo di deresponsabilizzazione istituzionale travestito da modernizzazione. Ed è qui che l’eresia si radicalizza: il problema non è solo Palantir, ma chi la chiama sapendo perfettamente cosa comporta, perché ciò che viene esternalizzato non è un compito, ma un rischio, il rischio di decidere.
È qui che il conflitto assume la sua forma definitiva: non tra Stato e tecnologia, ma tra due idee di sovranità inconciliabili. La tecnologia osserva il mondo come un insieme di pattern da correlare; la democrazia lo osserva come uno spazio di differenze da mantenere vive. Nel momento in cui gli Stati cedono la propria facoltà di interpretazione, non stanno solo abbandonando una funzione amministrativa: stanno consegnando la possibilità stessa di trasformare il conflitto in decisione politica. E mentre il secolo scorso ha visto le democrazie difendersi da nemici esterni, il presente assiste a una cessione interna: affidare lo sguardo collettivo a chi considera insufficiente il modo stesso in cui quello sguardo è stato storicamente costruito.
Prima di affrontare le conseguenze di questa dipendenza, è utile affrontare un punto che nel dibattito pubblico rimane sistematicamente in ombra. Negli ultimi anni si sono moltiplicati panel, linee guida, framework e codici di condotta sull’“AI etica”, su’“AI e coscienza”, sull’allineamento dei sistemi intelligenti.
Questa prospettiva intercetta problemi reali, ma rischia di non sfiorare il nodo decisivo: se la dipendenza cognitiva è una caratteristica strutturale dell’infrastruttura, e non un effetto collaterale di cattive pratiche, allora il discorso sull’allineamento dell’AI lavora su un piano diverso da quello in cui si gioca il potere. Il punto non è stabilire se un modello sia ben o mal allineato ai valori umani, ma riconoscere che una tecnologia privata occupa la funzione epistemica centrale. La questione non riguarda ciò che dichiarano le big tech, ma il fatto stesso che esistano come monopoli infrastrutturali della capacità interpretativa.
Una tecnologia può essere responsabile nei principi e trasparente nelle intenzioni, ma se assume la funzione epistemica centrale finisce comunque per determinare la forma del reale, indipendentemente dalla qualità dei protocolli adottati. Anche una AI perfettamente allineata ai valori democratici sarebbe problematica se fosse l’unica lente attraverso cui lo Stato percepisce il mondo. La criticità non riguarda la qualità della lente, ma il monopolio della visione.
In questo quadro, l’etica non scompare né diventa irrilevante; semplicemente non opera sul punto nevralgico del problema. Le questioni etiche restano essenziali ma da sole non riescono a incidere sull’architettura che concentra la capacità interpretativa nelle mani di attori privati. Il rischio, semmai, è che la discussione etica venga caricata del compito di risolvere ciò che non può risolvere: una struttura proprietaria che definisce le forme del vedere prima ancora che le norme del fare. Una tecnologia può adottare i codici più avanzati e rispettare standard elevati, ma se assume il ruolo di lente epistemica finisce comunque per orientare la forma del reale; non per cattiva volontà, ma per la posizione che occupa nell’infrastruttura.
E mentre le istituzioni continuano a ripetere la grammatica del Novecento, sicurezza, governance, efficienza, modernizzazione, non si accorgono di legittimare il paradigma che le considera un residuo storico. Nel momento stesso in cui chiedono a Palantir di salvarle, le democrazie accettano tacitamente la profezia della propria superabilità.
Ma il nodo non riguarda solo lo Stato: riguarda il modo in cui la capacità di leggere il mondo può essere ricostruita altrove. La possibilità non viene dalle istituzioni verticali, che partecipano della stessa crisi che cercano di correggere, ma dalle comunità autonome: territori che cooperano, reti sociali che condividono rischi e conoscenze, forme di decisione distribuita che non riducono la complessità a correlazione ma la rendono nuovamente vivibile. Non si tratta di celebrare un localismo nostalgico: si tratta di riconoscere che la sovranità cognitiva, la capacità di percepire, interpretare e immaginare con senso, può rinascere solo in contesti capaci di mantenere la pluralità senza dissolversi nell’omogeneità tecnica. Biodiversità, noodiversità e tecnodiversità.
Il futuro non si giocherà sulla competizione tra Stati e tecnologie, ma sulla capacità delle comunità di ricostruire un’intelligenza del mondo che non sia catturabile da un’unica infrastruttura privata. Forse solo un tessuto di comunità autonome, federato, cooperante, capace di apprendimento reciproco può sottrarre la facoltà interpretativa alla logica proprietaria. È in questo spazio che può nascere una democrazia cognitiva non Palantir/statale: non l’imitazione inefficiente della tecnocrazia, ma la sua alternativa. Io continuo a credere in questa partita, ma vorrei anche ascoltare una discussione critica su questo e anche proposte e metodi diversi. Intanto credo che sia in questa direzione che può emergere una forma di sussidiarietà tecnologica dell’AI: non la rinuncia agli strumenti avanzati, ma la loro redistribuzione secondo un principio semplice e radicale. Ciò che può essere interpretato e deciso da un livello locale non deve essere centralizzato; ciò che richiede cooperazione può essere gestito da federazioni di comunità; ciò che eccede le capacità territoriali può essere affrontato attraverso infrastrutture condivise e non proprietarie. La sussidiarietà tecnologica non è un ritorno al passato né un rifiuto della complessità: è un modo per impedire che l’intelligenza del mondo sia catturata in un solo punto, restituendo alle comunità la parte di giudizio che non possono permettersi di delegare. Se esiste un compito politico all’altezza di questo tempo, è restituire alla collettività la possibilità di interpretare se stessa senza dover chiedere a un algoritmo cosa sia reale. Ci serve un’intelligenza artificiale che ci aiuti a scoprire la verità, non che ce ne consegni una già pronta.
Immagine: Alex Karp e il Tai Chi