Quando le parole non riescono più a raggiungere il mondo

Scrivere qui in questi mesi produce una sensazione difficile da spiegare, perché le cose da dire sembrano sempre eccedere la forma che dovrebbe contenerle, come se il presente avesse improvvisamente aumentato la propria pressione e ogni tentativo di fissarlo in una frase arrivasse sempre un attimo dopo che qualcosa di nuovo è già accaduto. Non è soltanto la velocità degli sviluppi tecnologici, anche se ovviamente c’entra: nuovi modelli linguistici, nuove infrastrutture di calcolo, nuovi chip, nuove promesse di intelligenza artificiale generale. È qualcosa di più sottile e forse più inquietante: la sensazione che tutti questi eventi non stiano semplicemente accadendo ma stiano anche producendo una nuova cosmologia operativa, un modo implicito di interpretare il mondo che non viene dichiarato come filosofia ma che agisce come se lo fosse.

La sensazione è che il tempo storico abbia cambiato consistenza. Gli sviluppi tecnologici, economici e politici non procedono più in sequenza ma si accavallano, producendo una specie di simultaneità permanente che rende quasi impossibile tenere insieme gli eventi dentro una memoria coerente. C’è qualcuno che riesce davvero a seguire tutto? Le parole ormai arrivano sempre con un leggero ritardo rispetto agli eventi. Non si tratta mi pare di un limite del linguaggio o della nostra capacità di analisi. È piuttosto il segnale di una transizione di fase nella struttura stessa della storia. Per secoli le società umane hanno vissuto dentro un regime in cui gli eventi venivano prima narrati, interpretati, simbolizzati e solo dopo trasformati in decisioni politiche o collettive. Oggi quel rapporto si sta invertendo; stiamo passando da una storia fatta di narrazioni a una storia sempre più organizzata dal calcolo, in cui la realtà viene processata come flusso di dati prima ancora di poter essere simbolizzata. Dalla storia narrata alla storia computata.

Questo passaggio non è un’astrazione teorica e sta già accadendo in una serie di istituzioni molto concrete. Ormai sono noti ma provo a ricordarli: nei mercati finanziari globali la maggior parte delle transazioni viene ormai eseguita da sistemi di trading algoritmico che reagiscono a variazioni di prezzo in millisecondi, molto prima che un analista possa interpretarne il significato. Nelle piattaforme digitali che organizzano la nostra attenzione quotidiana, sistemi di raccomandazione calcolano in tempo reale quali contenuti mostrarci sulla base di modelli probabilistici del nostro comportamento, producendo decisioni editoriali senza redazioni. Nelle catene logistiche e nella gestione delle città, modelli predittivi ottimizzano traffico, consumi e distribuzione delle risorse prima che queste dinamiche diventino oggetto di deliberazione politica. Nel campo della sicurezza e della giustizia si diffondono strumenti di analisi predittiva che cercano di anticipare il rischio di comportamenti futuri.
In tutti questi casi la sequenza classica, evento, interpretazione, decisione, viene compressa o invertita. Il sistema non aspetta più che la realtà venga raccontata per agire; la processa direttamente come flusso di dati e interviene sulla base di modelli probabilistici. Il risultato è che molte decisioni, deliberazioni collettive vengono prese prima ancora che esista una narrazione condivisa di ciò che sta accadendo.

Chi sostiene che la computazione espanda piuttosto che comprimere le capacità simboliche umane non ha torto su tutto. I modelli linguistici permettono a milioni di persone di accedere a sintesi di conoscenza prima inaccessibili; le infrastrutture digitali hanno reso possibili forme di coordinamento collettivo impensabili trent’anni fa; la visualizzazione dei dati ha reso leggibili fenomeni che prima restavano opachi. Se questa espansione fosse solo tecnica e quantitativa, il problema non si porrebbe. Il problema si pone quando la logica del calcolo non si limita ad amplificare la cognizione umana ma ne ridefinisce silenziosamente i criteri: quando ciò che conta come conoscenza diventa progressivamente ciò che è misurabile, ciò che conta come decisione diventa ciò che è ottimizzabile e infine ciò che conta come realtà diventa ciò che ha un valore predittivo. Una narrazione è vulnerabile: puoi smontarla, mostrarne le contraddizioni, opporti con un’altra narrazione. Un modello probabilistico non è contestabile, si presenta come oggettivo. Non ha una struttura argomentativa da smontare, ha solo un’accuratezza predittiva da misurare. E questa asimmetria, tra la vulnerabilità della narrazione e l’apparente neutralità del calcolo, è precisamente il luogo in cui il potere si nasconde oggi.

Questa sottrazione alla critica non è nuova: è la struttura di ogni sistema che pretende di parlare in nome di una verità non negoziabile. La teologia classica cercava di interpretare la volontà divina attraverso l’esegesi, interrogando testi, segni, rivelazioni per ricostruire un senso del mondo, la nuova teologia materiale opera attraverso la predizione algoritmica: non interpreta più il significato degli eventi ma ne anticipa le probabilità, trasformando la conoscenza in un problema di ottimizzazione statistica. La domanda sul senso non scompare, ma viene progressivamente sostituita da una domanda diversa: non che cosa significa ciò che accade, ma quale configurazione dei dati rende più efficiente l’esito che vogliamo ottenere.

Se volessimo usare il linguaggio delle vecchie eresie potremmo dire che stiamo assistendo alla nascita di una nuova teologia materiale. Non una religione nel senso classico del termine, ma un sistema di promesse salvifiche organizzato attorno alla potenza computazionale. La morte biologica diventa un problema tecnico da risolvere, l’intelligenza umana una fase intermedia dell’evoluzione, la coscienza qualcosa che potrebbe essere trasferita, replicata, scalata. Questa visione non si presenta come mito, si presenta come ingegneria eppure funziona esattamente come un mito.

E questa nuova teologia non nega affatto la trascendenza, al contrario, la imita. La sostituisce con una luce artificiale sufficientemente intensa da attivare gli stessi meccanismi di orientamento spirituale che per millenni hanno guidato le civiltà umane. Ho passato molte settimane nei boschi trentini nei mesi scorsi e guardavo gli abeti, i cirmoli, che profumano tantissimo; in assenza di luce, di un vero sole, gli alberi si orientano verso qualsiasi sorgente luminosa disponibile, anche quando capiscono che quella luce non sostiene davvero la vita. Così a volte i boschi sembrano disorientati ma non disordinati, una tensione biologica verso qualcosa che attiva il meccanismo dell’orientamento ma non la sua finalità.

E nel bosco mi chiedevo perché la luce artificiale degli algoritmi è così convincente. L’umanità non è ingenua, seguiamo la luce perché illumina davvero qualcosa e il problema non è che non funzioni. È che funziona abbastanza da far dimenticare cosa non può fare. Gran parte dell’ideologia tecnoprogressiva funziona esattamente così. Non distrugge il desiderio di trascendenza ma lo cattura, lo devia, lo traduce in una promessa di potenza tecnica. La liberazione diventa upgrade, la redenzione diventa ottimizzazione, l’eternità diventa backup. La luce è artificiale ma sufficientemente intensa da convincere un’intera civiltà.

È un’illusione ma non nasce dal nulla; è costruita su fenomeni reali come la complessità dei sistemi, la capacità delle reti di auto-organizzarsi, l’emergere di forme di intelligenza distribuita dentro infrastrutture computazionali sempre più sofisticate. È una decisione culturale questa nostra: assumere la massimizzazione dell’intelligenza tecnica come fine in sé, come se la potenza computazionale fosse automaticamente equivalente a una crescita della comprensione. Così una civiltà può diventare straordinariamente efficiente sul piano tecnico mentre perde progressivamente la propria capacità di orientamento simbolico. La potenza cresce mentre il senso si ritira, e ciò che inizialmente nasce come strumento finisce lentamente per trasformarsi in una visione implicita del mondo. Quando questo accade la tecnica smette di essere uno strumento e diventa una cosmologia.
Questa cosmologia operativa agisce come il Demiurgo delle tradizioni gnostiche: un architetto convinto di costruire il mondo mentre costruisce una prigione di specchi. Solo che oggi questo Demiurgo non è un’entità metafisica ma un’infrastruttura di silicio. Ciò che non è traducibile in dato non viene censurato: semplicemente smette di esistere per il sistema sociale. La luce artificiale è così intensa da appiattire ogni ombra e proprio nell’ombra risiede la capacità umana di produrre significati irriducibili alla logica dell’ottimizzazione.

Il transumanesimo e il longtermismo rappresentano forse la forma più esplicita di questa trasformazione, perché propongono una vera e propria dottrina della salvezza tecnologica: la promessa che la morte biologica possa essere aggirata, che la mente possa essere trasferita su supporti artificiali, che l’intelligenza computazionale rappresenti la nuova fase evolutiva della specie. Non è soltanto un progetto ingegneristico ma una narrazione di salvezza. Così un ecosistema costruito interamente attorno alla massimizzazione della potenza computazionale finisce per colonizzare il linguaggio, l’attenzione e l’immaginazione.

Quando una civiltà perde la propria immaginazione simbolica perde anche la capacità di distinguere tra la luce e la sua imitazione. C’è spazio per un’oscurità generativa,? che non è l’assenza di informazione, ma l’area di resistenza che impedisce al calcolo di diventare destino. In un sistema in cui ogni interazione viene convertita in un vettore e ogni desiderio anticipato da un’analisi statistica della latenza comportamentale, la trasparenza totale smette di essere una promessa di conoscenza e diventa lentamente una forma di morte cognitiva.

Quando tutto è illuminato, mappato e reso computabile, il pensiero perde la propria autonomia e inizia a scivolare lungo i binari dell’ottimizzazione algoritmica, adattandosi a ciò che il sistema è già in grado di prevedere. L’oscurità, in questo senso, non rappresenta il contrario della conoscenza ma il suo residuo incomputabile: quel margine di errore, di ambiguità o di rumore che la macchina tenta ossessivamente di eliminare ma che è l’unico spazio in cui può emergere qualcosa di veramente nuovo.
L’oscurità generativa è una sacca di complessità non riducibile in cui le variabili non sono ancora state misurate, è il luogo in cui l’esperienza non è stata completamente tradotta in dato. È la differenza tra il territorio e la mappa: il territorio è caotico, sporco, pieno di deviazioni impreviste; la mappa è pulita, sintetica, computabile. Se una civiltà scambia definitivamente la mappa per il territorio, perde anche la capacità di generare forme che non siano semplici ricombinazioni statistiche del passato.

Un sistema vivente, biologico, cognitivo e culturale, non è tale perché ha eliminato il rumore, ma perché sa usarlo. L’evoluzione non ottimizza verso un minimo di entropia: naviga nell’incertezza, produce variazioni impreviste, seleziona retroattivamente. Allo stesso modo un pensiero che non tollera l’ambiguità non è un pensiero più potente: è un pensiero che ha rinunciato alla propria capacità generativa. Ciò che la macchina chiama errore è spesso ciò che l’intelligenza chiama intuizione. La nostra civiltà sta progressivamente organizzando le proprie istituzioni attorno alla promessa che ogni fenomeno, dal comportamento economico alla vita emotiva, possa essere tradotto in dati e quindi ottimizzato. Ma esistono stati di coscienza, intuizioni estetiche, decisioni morali e atti di volontà che non lasciano tracce digitali coerenti e che proprio per questo restano liberi. Rivendicare l’oscurità generativa significa difendere il diritto di non essere completamente leggibili, il diritto al segreto come condizione della creatività.
Politicamente questo si traduce in domande molto concrete, non solo in metafore. Quali architetture istituzionali proteggono oggi spazi di deliberazione che non siano già formattati dalla logica dell’ottimizzazione? Quali regimi giuridici garantiscono il diritto a processi decisionali non algoritmicamente mediati, in tribunale, in sanità, nell’istruzione? Quali pratiche culturali mantengono viva la capacità di produrre narrazioni che non siano riducibili a dati di engagement? Non si tratta di nostalgia per un mondo pre-digitale che non tornerà e che non era privo dei propri meccanismi di controllo. La democrazia, nel senso più elementare del termine, richiede zone di opacità: spazi in cui il potere non possa arrivare non perché siano nascosti, ma perché non sa cosa cercare. Difendere l’oscurità generativa non è una fuga mistica, è la condizione minima perché qualcosa di non ancora previsto possa ancora accadere.

Immagine: James Turrell, Aten Reign (2013). Turrel non usa la luce per illuminare qualcosa: trasforma la luce stessa in ambiente percettivo totale, facendo entrare lo spettatore dentro una realtà artificiale che non rappresenta il mondo ma lo sostituisce