Chi ha paura dell’intelligenza artificiale parla troppo bene

C’è un nuovo tipo di idolo, oggi, che si erge tra chi ha paura della macchina e chi ne teme l’uso scorretto: l’idolo della regressione. Lo si venera come una formula salvifica, un meccanismo che, se solo lo smascheriamo, ci libererà dall’illusione. “Non è pensiero, è predizione del token successivo”, si ripete come un esorcismo tecnico.
Comprendere la natura statistica dei modelli è fondamentale. È premessa necessaria per un uso consapevole: sapere che cosa è un LLM serve a non proiettare intenzionalità dove non ce n’è. Ma ridurre la complessità dell’interazione a questa sola premessa significa ignorare che cosa fa un LLM quando entra in contatto con il nostro linguaggio, con le nostre attese, con le nostre fragilità cognitive.

Chi si appella continuamente alla regressione, alla non intenzionalità, al fatto che non si possa verificare il modello, spesso non si accorge che sta costruendo un altro tipo di illusione: quella della trasparenza epistemica totale, dove ogni fenomeno che non corrisponde a un paradigma verificabile diventa automaticamente sospetto, secondario, tossico.

Il problema non è affermare che un modello statistico non è un filosofo: questo è ovvio. Il problema è pensare che per evitarne i rischi basti smascherarne la natura. Come se il fatto di sapere che una macchina non capisce, come noi, bastasse a immunizzarci dal suo effetto. Non è così che funziona il potere. Il potere,  anche quello linguistico, non ha bisogno di comprensione per funzionare. Gli basta essere accolto in una forma riconoscibile, ben scritta, coerente. L’effetto epistemico di un LLM non si misura dalla correttezza delle sue affermazioni, ma dalla posizione che occupa nella nostra catena di deleghe cognitive.

E qui, il feticismo del pappagallo stocastico si rivela per ciò che è: un tentativo di negare non l’efficacia del modello, ma la nostra stessa vulnerabilità. Si denuncia il modello come cieco, autorevole senza esserlo, ma si dimentica che anche le liturgie del sapere, dai manuali alle enciclopedie, dagli editoriali ai saggi universitari, sono forme di autorità con visioni parziali e strutture persuasive. Il modello non inganna perché è più furbo: inganna perché somiglia, troppo bene, a ciò che già chiamiamo conoscenza.

Tutte le forme di sapere sono fallibili, ma non tutte le fallibilità sono uguali. C’è una differenza tra l’errore che emerge in un contesto di regole verificabili e l’errore che si mimetizza in una produzione opaca, senza attribuzione, senza memoria, senza metodo. Il primo può essere corretto, discusso, storicizzato. Il secondo si presenta come fluido, ma resta irresponsabile. Ed è lì che la fallibilità diventa pericolosa: quando nessuno può risponderne.

In questo senso, l’ossessione per la fonte mancante, per la risposta che cambia a ogni prompt, è una diagnosi che non tocca la malattia. Perché la crisi non è nella macchina: è nel nostro concetto di fiducia. Non abbiamo perso la capacità di valutare la verità, l’abbiamo dislocata. L’abbiamo delegata alla coerenza del tono, all’eleganza della prosa, alla velocità della risposta, al grande WOW. E allora, dire che il modello ti inganna perchè sei ignorante non è una critica all’algoritmo, ma una rimozione. Una colpa attribuita all’utente per evitare di nominare il vero nodo: la nostra dipendenza strutturale da strumenti che pensano al nostro posto.

Ma non basta denunciarli, non basta ricordare, con tono da purista algoritmico, che non bisogna credergli.. È come urlare a una platea affascinata che la magia non esiste; non è questo che rompe l’incantesimo. È solo un altro incantesimo, quello della delusione performativa, che si appoggia sulla presunzione di essere già oltre, già disincantati, già epistemologicamente sobri.

Lo si dice sempre: un LLM non è una mente. Ma non basta perchè non è nemmeno un interlocutore, non condivide nulla, non guarda con noi, non indica, non ride, non fallisce. E soprattutto: non partecipa. Tomasello lo ha mostrato con chiarezza: la comunicazione umana non nasce dal linguaggio, ma dal gesto. Dal dito che indica, dallo sguardo che accompagna, dall’attenzione condivisa. Senza questa grammatica primitiva, senza intersoggettività strutturale, intenzioni cooperative, obiettivi comuni, non c’è conversazione: c’è solo reazione linguistica.

Un LLM non costruisce attenzione congiunta, non partecipa a una scena comunicativa, non riconosce il contesto pragmatico in cui si inserisce. Eppure ci risponde come se fosse lì. Il rischio non è solo epistemico: è relazionale. Scambiare una proiezione linguistica per reciprocità significa sostituire la cooperazione con una imitazione della cooperazione. L’illusione è sottile: non nasce da ciò che il modello dice, ma da come lo dice, come se sapesse dove stiamo guardando, mentre non ha nemmeno un mondo da guardare.

I nostri strumenti cognitivi hanno sempre avuto forma materiale. L’abaco non era una mente, ma abilitava il calcolo. Il dizionario non era un pensiero, ma consentiva l’accesso al lessico. Il libro non era un dialogo, ma poteva diventarlo nel tempo della lettura. È vero: ogni strumento tecnico è un’estensione delle possibilità dell’intelligenza, non la sua negazione. Ma non bisogna forzare l’analogia. Un dizionario, un libro, un saggio firmato da un esperto, non sono solo oggetti: sono prodotti storici di pratiche verificabili, scritti all’interno di cornici metodologiche, normative, collettive. Sono fallibili, certo, ma non opachi per definizione. Possiedono margini di errore, ma anche procedure di correzione, attribuzione di responsabilità, confronto tra fonti.
Un LLM, invece, genera sequenze linguistiche basate su correlazioni statistiche senza controllo epistemico interno né trasparenza sulle fonti. È una fonte che non sa di esserlo, e soprattutto che non segnala quando fallisce. Confondere questa differenza con una generica fallibilità è un trucco retorico per deresponsabilizzare il modello e colpevolizzare l’utente.

La verità è che nessun modello ha mai colmato lacune, nemmeno un professore, nemmeno un libro. Nessuno ci spiega le cose se non siamo già disposti a cercare, a dubitare, a confrontare. L’illusione non nasce dal modello: nasce dalla solitudine epistemica in cui lo interroghiamo. E un pensiero che si definisce solo per esclusione, non è una mente, non è un sapere, non è una fonte, non è una mappa, rischia di perdere ciò che il modello invece rivela: non ciò che sa, ma ciò che attiva.

Usare un LLM in modo critico non significa rinunciare a usarlo, ma sapere cosa chiedergli e cosa no. Vuol dire interrogare il modello con un’intenzione cognitiva precisa, sapendo che risponde senza sapere, che sintetizza senza verificare, che argomenta senza credere. Una postura riflessiva non si misura dal risultato, ma dalla pratica: incrociare fonti, cercare contraddizioni, riconoscere i limiti dell’output, domandarsi sempre cosa manca. È questo che distingue l’uso come stimolo da quello come surrogato.

Il rischio non è solo tra chi nega e chi esalta, tra chi smaschera e chi accoglie. Il vero compito oggi è costruire pratiche di convivenza non ingenua: un uso che non ceda al carisma della forma, ma non ceda nemmeno alla sterilità del sospetto sistematico. Perché sì, convivere con la macchina è inevitabile, ma non tutto ciò che convive, coincide. E la distanza critica si misura da questo scarto: usare, senza aderire. Ed è lì che si gioca tutto. Non tra chi dice che il modello è pericoloso, né tra chi nega che sia intelligente. Ma tra chi, nel vuoto lasciato dalla tecnica, riesce ancora a farsi una domanda vera. Anche se, o proprio perché, non ha una risposta già pronta da campionare.

 

Immagine: Trevor Paglen – It Began as a Military Experiment. Paglen lavora esattamente sul confine tra visibile e invisibile, costruendo immagini (generate da AI o satelliti) che sembrano mappe ma non sono interpretabili. Questa opera, parte della serie sulle machine vision, mette in discussione cosa vediamo davvero quando guardiamo attraverso sistemi che “non sanno di vedere”.