Ma io voglio una AI che sbagli!

Stanno costruendo un’AI che è l’equivalente di un’operazione di lobotomia prefrontale sulla civiltà: per eliminare l’ansia e l’inquietudine del mondo, stiamo eliminando la capacità di sentire e di reagire al mondo stesso.

Non stiamo usando l’intelligenza artificiale per capire meglio il mondo. La stiamo usando per ridurre l’inquietudine che il mondo ci provoca. È una differenza sottile, ma decisiva e non riguarda la tecnologia in sé, ma la postura con cui pretendiamo di conoscere e governare ciò che non controlliamo.
C’è un peccato originale che attraversa la modernità e che oggi ritorna, amplificato, nell’intelligenza artificiale: la pretesa di poter mangiare il frutto della conoscenza senza pagarne il prezzo. L’idea che la conoscenza possa, prima o poi, chiudersi; che basti accumulare dati, raffinare strumenti, aumentare la potenza di calcolo per trasformare l’incertezza in rumore di fondo. È una fede più che un metodo.
Perché la conoscenza non è incompleta in attesa di essere completata: è strutturalmente parziale; non per difetto, ma per condizione. Abitiamo il mondo da dentro, lo intercettiamo a frammenti, lo leggiamo con categorie storiche e instabili, lo comprimiamo in modelli che salvano qualcosa sacrificandone sempre altro. Le nostre istituzioni decidono in ritardo, i nostri dispositivi arrivano dopo, i nostri sistemi di governo inseguono dinamiche che corrono più veloci della loro descrizione. L’illusione moderna non è sbagliare, ma credere che questa parzialità sia un problema tecnico da risolvere.
Se la conoscenza è parziale, allora anche l’azione lo è. Non può fondarsi sulla certezza, perché la certezza è un artefatto retrospettivo: la riconosciamo solo dopo che qualcosa è accaduto. L’azione reale avviene sempre nel dubbio; non un dubbio paralizzante, ma un dubbio operativo, cioè il riconoscimento che si agisce senza possedere il quadro completo. Ma se il dubbio è intrinseco, non può che esserlo anche il modo in cui decidiamo. Se il dubbio è intrinseco, allora anche l’azione non può che organizzarsi per gradi: gradi di esposizione, di impegno e di errore, perché decidere in condizioni di incertezza significa sempre restare parzialmente esposti, reversibili e correggibili.
In questo senso la timidezza (non come insicurezza, ma come scelta di non forzare decisioni dove la conoscenza è insufficiente), parola sospetta in un’epoca ossessionata dall’ottimizzazione, non è una debolezza, ma una disciplina. È la postura di chi agisce sapendo di non essere finito. E dalla timidezza segue la tenerezza (cioè restare sensibili alle conseguenze, senza neutralizzarle come semplice rumore): trattare i danni come segnali informativi, non come semplici esternalità e restare correggibili e accettare che ciò che facciamo ci modifichi mentre lo facciamo. Per i cristiani sarebbe la vulnerabilità.
Questa postura diventa inevitabile quando si prende sul serio un secondo fatto ovvio ma che spesso dimentichiamo: i sistemi in cui viviamo non sono lineari né separabili. Sono accoppiati, a cascata, ricorsivamente aggrovigliati. Gli effetti non restano dove li collochiamo; le decisioni migrano attraverso i domini; i cambiamenti locali riarticolano dipendenze lontane. Qui la stabilità non è uno stato naturale, ma un evento temporaneo. Non torniamo alla stabilità dopo uno shock: la produciamo continuamente attraverso feedback, manutenzione e vincoli. E a volte, per fortuna, falliamo.
Scambiare questi momenti di tenuta provvisoria per prove di un ordine stabile è un errore cognitivo ricorrente: confondiamo la superficie per la struttura. L’interdipendenza si dice. Continuiamo a progettare come se i problemi potessero essere isolati e come se i domini fossero gestibili in parallelo.
Ma in un mondo di interdipendenza densa, quello che voglio capire non è se qualcosa funziona. È a cosa si accoppia, cosa amplifica, cosa silenzia e cosa destabilizza nel tempo.
Dentro questa cornice è ovvio, anche senza tirare in ballo la statistica, che gli LLM siano epistemologicamente fallaci; diventa invece secondario continuare a discuterlo. Non perché l’errore non conti, ma perché il problema non è riducibile a una questione statistica. Anche ammesso uno strumento estremamente accurato, ciò che conta è che l’AI opera comunque dentro una parzialità strutturale che non dipende dal grado di precisione del modello, ma dalla natura dei sistemi che attraversa. La fallibilità non è quindi un difetto tecnico da misurare, ma l’effetto di una condizione più profonda: nessuna conoscenza incarnata in un punto di vista, in un contesto e in una rete di relazioni può essere totale.
È qui che la distinzione tra AI fallace e AI perfetta, la superintelligenza, l’ASI, oltre l’umano, come piace a molti, acquista senso, ma solo se sottratta alle discussioni sull’accuratezza. Non è una differenza prestazionale, è una differenza di postura epistemica e politica. Un’AI perfetta, intesa come chiusa e conclusiva, sarebbe l’utensile ideale di un controllo statico: chiude le domande, congela le decisioni, elimina il margine.
Un’AI non totalizzante, invece, mantiene aperto il circuito: costringe a restare nel loop, rende possibile la correzione, espone l’illusione della risposta definitiva.
Per questo l’AI non serve a darci risposte, ma a moltiplicare le domande giuste. Non azzera l’incertezza: la redistribuisce, la rende visibile e negoziabile. Funziona solo se trattata come processo e non come verdetto, come strumento di esplorazione e non come oracolo. È un artigianato del possibile, non una scienza del certo.
Da qui segue la conseguenza più scomoda. Un’AI davvero perfetta non potrebbe emergere senza trasformare il mondo in qualcosa di meno complesso di ciò che è. La sua perfezione sarebbe sempre locale, ancorata a una funzione obiettivo e a un insieme di valori impliciti e proprio per questo cieca al resto. Non conoscerebbe meglio il mondo: lo semplificherebbe per poterlo governare, o meglio per farlo governare ai pochi. L’ASI e quello che siamo sviluppando, ecco non sarebbe più intelligente dell’uomo, anzi renderebbe il mondo meno intelligente. La fallibilità non è un limite da superare, non è dire no all’innovazione e al progresso, per fortuna pochi lo ricercano, ma una condizione politica e umana da difendere. Un sistema che non può essere corretto non è intelligente, è sovrano.
Cosi arrivo a un altro punto che faccio fatica a seguire nel dibattito intorno alla AI: l’attuale architettura dei metodi AI Safety. Per rendere l’intelligenza sicura, la si priva della sua capacità di divergere, cioè di ciò che la rende tale. La sicurezza viene tradotta in riduzione dello spazio degli stati: guardrail, filtri, perimetri di output che non si limitano a escludere il pericoloso, ma amputano il possibile. Non è solo censura dei contenuti; è censura delle code della distribuzione, delle ambiguità, delle eresie, di tutto ciò che non rientra nella forma liscia del consenso statistico.
In questo senso la Safety funziona come un filtro epistemico: taglia le frequenze alte della complessità per produrre un segnale stabile, prevedibile, rassicurante. Ma se l’intelligenza è la capacità di navigare l’incertezza, qui l’incertezza non viene abitata, viene neutralizzata e l’entropia non è gestita ma è negata. Ciò che resta non è chiarezza, ma una certezza artificiale, ottenuta sottraendo.
Lo stesso vale per ciò che chiamiamo allineamento. Presentato come il tentativo di far perseguire all’AI obiettivi umani, l’allineamento attuale è in realtà una convergenza forzata verso un valore medio etico, definito in contesti opachi e poi esportato come standard universale. Non è un problema di morale, ma di potere: una forma di dogmatismo operativo che riduce la pluralità dei mondi possibili a una sola visione sterilizzata. Il sistema finisce così per imparare non dal mondo, ma dalla propria ombra, riflessa all’infinito dai guardrail che lo tengono al sicuro.
Il risultato è un’intelligenza immunizzata dal conflitto, ma non deve essere così; le società umane, avanzano attraverso frizione, errore, dissenso. Un’AI che non può offendere, sbagliare o deviare è un’AI che non può mettere in crisi lo status quo perchè stabilizza e basta. È fragile proprio perché non è vulnerabile e come un ecosistema senza predatori, perde la capacità di adattarsi quando arriva lo shock che non era previsto nei dataset.
L’eresia finale è semplice: abbiamo bisogno di sistemi che possano sbagliare. Se l’errore è censurato a monte, la responsabilità evapora a valle. L’utente smette di esercitare giudizio, perché la sicurezza promessa diventa delega cognitiva totale: se il sistema è allineato, allora è giusto. È qui che muore la postura timida e tenera: non c’è più bisogno di restare sensibili alle conseguenze se un algoritmo ha già deciso che quelle conseguenze sono state neutralizzate.
Non cerco un’AI più docile o più rassicurante, ma un’AI più libera, che non anestetizzi il mondo per renderlo governabile, ma che restituisca la sua inquietudine e rimandi a noi la responsabilità delle decisioni. Stanno costruendo un’AI che è l’equivalente di un’operazione di lobotomia prefrontale sulla civiltà: per eliminare l’ansia e l’inquietudine del mondo, stiamo eliminando la capacità di sentire e di reagire al mondo stesso.
Immagine: Study after Velazquez’s portrait of Pope Innocent X di Francis Bacon, 1953. Il corpo come carne deformata dal potere. L’urlo che non comunica, ma resta intrappolato. È l’immagine di un’intelligenza anestetizzata che sente ma non può reagire.