La domanda non è “cosa può fare l’intelligenza artificiale”, ma perché questa tecnologia è così perfettamente compatibile con l’ideologia dominante? Perché ogni suo sviluppo, ogni sua applicazione, ogni sua promessa, dalla predizione alla personalizzazione, dalla sorveglianza all’ottimizzazione, sembra risuonare esattamente con ciò che già da tempo governa le nostre vite, le nostre istituzioni, i nostri desideri.
Quando parliamo di ideologia dominante, non mi riferisco a una teoria astratta o a un complotto invisibile. Parlo di un insieme di assunti normalizzati che governano il nostro modo di pensare e agire: l’idea che tutto debba essere misurabile, scalabile, performativo. Il valore coincida con l’utilità, l’incertezza è un problema da eliminare, ogni processo deve produrre un risultato ottimizzato. È una visione del mondo che permea le istituzioni, i mercati, i linguaggi, perfino le relazioni e la diplomazia. L’AI non fa che codificare queste premesse in forma operativa, non le inventa ma le esegue. Ma non c’è più spazio per un noi contrapposto a un loro: serve una forma diversa di co-abitazione, che riconosca la differenza senza erigerla a distanza.
Non è l’AI a semplificare il mondo, è il mondo già semplificato che ha generato l’AI. Un mondo dove la complessità è sospetta, l’incertezza è un errore, il tempo è una risorsa da ridurre. L’intelligenza artificiale non ha inventato il calcolo della prestazione, l’ossessione per l’efficienza, la paura del rallentamento: li ha ereditati e perfezionati. È il figlio obbediente di una genealogia lunga fatta di burocrazie che riducono l’esistenza a modulo, colonizzazioni che classificano i corpi e le culture, industrie che misurano i gesti, media che addestrano l’attenzione, piattaforme che ottimizzano il desiderio.
L’AI non è un’eccezione: è una conseguenza, è l’esito coerente, non neutro, non inevitabile, di una lunga traiettoria storica. Se osserviamo la genealogia che l’ha preceduta, dall’amministrazione burocratica alla classificazione coloniale, dall’ottimizzazione industriale alla cattura dell’attenzione mediatica, emerge un pattern preciso. La progressiva riduzione della complessità del vivente e non a parametri misurabili e gestibili. Ogni epoca ha prodotto i suoi dispositivi di misurazione dell’umano a partire dalle tecniche antropometriche dell’Ottocento, i test di intelligenza del Novecento, gli algoritmi di scoring creditizio, i sistemi di rating reputazionale, il credito sociale, i profili digitali. L’intelligenza artificiale rappresenta l’apice di questa genealogia. È il più sofisticato e pervasivo tra questi dispositivi, capace di catturare, incrociare e valutare una molteplicità di segnali, comportamentali, linguistici, affettivi, traducendoli in predizione e governo.
In questa continuità storica, ciò che cambia è la scala e l’intensità. La tecnologia digitale, e l’AI in particolare, non si limita più a supportare il funzionamento del sistema ma ne incarna direttamente l’ideologia. Apparentemente si presenta come neutra, ma è già schierata. Certo non è la macchina a dichiararsi al servizio dell’umanità: sono coloro che la detengono, la progettano, la distribuiscono che lo fanno, scegliendo a chi rivolgere i benefici, su quali logiche operare, cosa ottimizzare e cosa scartare. L’AI ci assiste, ma nel farlo ci addestra a agire più in fretta, a tollerare meno ambiguità, a desiderare solo ciò che è già stato previsto.
Ma chi sono oggi i soggetti attivi di questa trasformazione? Quali poteri si esercitano attraverso l’AI? Non basta parlare genericamente di tecnologia, serve nominare strutture precise. Parliamo di grandi piattaforme digitali che detengono monopoli sui dati e sulle infrastrutture cloud; di Stati che impiegano l’AI per il controllo predittivo e la sicurezza algoritmica; di istituzioni finanziarie che automatizzano il merito creditizio e la valutazione dei rischi. L’AI è oggi il perno tecnico di un regime cognitivo e operativo che redistribuisce il potere senza dichiararlo. Un potere che non si limita a comandare, ma plasma ciò che è visibile, dicibile, pensabile.
Uno dei luoghi in cui questa ideologia si manifesta con maggiore forza è il linguaggio. I modelli linguistici non sono strumenti neutri ma codificano e normalizzano forme di razionalità che presentano come naturali ciò che è, in realtà, storicamente determinato. Selezionano quali strutture sintattiche privilegiare, quali concetti rendere accessibili, quali toni e registri legittimare. Il linguaggio diventa così il terreno di battaglia dove si gioca la lotta per il senso: ciò che può essere detto, ciò che viene ripetuto, ciò che viene silenziato. L’AI, in questo senso, non solo parla: educa a parlare. E nell’educare, orienta il pensiero. Il suo potere non sta solo nel decidere cosa dire, ma nel rendere alcune forme di pensiero più probabili, più leggibili, più accettabili. È un vettore ideologico mascherato da neutralità tecnica.
Ma c’è un’altra dimensione, più silenziosa, in cui l’AI esercita il proprio potere: il tempo. L’intelligenza artificiale non accelera soltanto i processi, ma trasforma radicalmente la nostra relazione con la temporalità. Colonizza i tempi morti, li interpreta come difetti di sistema, come inefficienze da correggere. Elimina le attese, i vuoti, le pause, le esitazioni, tutti quei momenti che, nella vita umana, sono invece spazi generativi. Il silenzio, il ritardo, il confronto, l’incomprensione: diventano anomalie da prevenire, interruzioni da ottimizzare. Eppure è proprio in quelle fenditure del tempo che si aprono possibilità di riflessione, di immaginazione, di contatto reale con sé e con l’altro. L’AI ci abitua a una temporalità continua, immediata, prevedibile. Ma nel farlo, ci sottrae la possibilità di abitare l’imprevisto. Anche il tempo viene reingegnerizzato secondo il principio dell’utilità: ciò che non produce, non serve e ciò che non serve scompare.
Questa lettura rischia comunque di essere troppo deterministica. Se è vero che l’AI incarna le logiche del sistema che l’ha generata, è anche vero che ogni tecnologia conserva un margine di indeterminatezza, di deviazione possibile, di reinterpretazione. Nessun artefatto è completamente chiuso nel progetto di chi lo ha pensato. Le tecnologie vengono usate, riadattate, a volte persino rovesciate. È proprio in questo margine che può ancora inscriversi una domanda politica: come riaprire lo spazio delle possibilità all’interno di un’infrastruttura pensata per ridurre? Come fare dell’intelligenza qualcosa che non predice, ma ascolta? Per questo serve una critica che non si limiti a temere la macchina, ma che interroghi il sistema che l’ha progettata. Che non si accontenti di chiedere trasparenza, etica e diritti digitali, ma che osi domandare cosa significa vivere in un mondo dove l’intelligenza viene rimodellata esclusivamente sul profitto.
Rifiutare la tecnologia non è la soluzione. Ma è necessario rifiutare il destino che essa incorpora se lasciata al suo corso. Non è il futuro dell’AI a essere in discussione, è il nostro. Perché in ogni qualsiasi forma di intelligenza che progettiamo, stiamo già scrivendo una forma di umanità. E se oggi l’AI funziona così bene in questo mondo, è perché questo mondo ha smesso di tollerare l’opaco, il fragile, il gratuito, il confronto, l’ascolto. Guardarsi dentro, immaginarsi dall’altra parte, mettersi nei panni altrui non sono debolezze da correggere, ma forme di intelligenza relazionale che questa logica non riesce più a contenere. Ricominciare da qui, da ciò che non serve, da ciò che non produce, da ciò che si fonda sul confronto, un atto empatico radicale, non è un gesto poetico, è un gesto politico. Non per addestrare le macchine ma per disimparare la parte di noi che le ha rese così efficienti.
Non tutto ciò che avete letto è mio. Molto viene dal pensiero e dalle riflessioni di Beatrice Chizzola. Se qui c’è un merito, è più suo che mio, la ringrazio.
Immagine: Ryoji Ikeda, datamatics 209. Arte digitale che traduce dati in estetica, ma genera vertigine, spaesamento. Bellezza astratta e inumana.