La stupidità non è un effetto collaterale. È una scelta strutturale.

Il pensiero umano, nella sua dimensione più profonda, non si lascia normalizzare. E se l’intelligenza artificiale ha un valore reale, oggi, è solo nella misura in cui può aiutare a rendere visibili altre forme del pensiero, altre traiettorie logiche, altre posture cognitive che non coincidono con quelle codificate da un sapere elitario. Non si tratta di sembrare pensanti, ma di liberare il pensiero dai vincoli culturali, istituzionali, retorici che ne hanno definito per secoli la legittimità.

Che la AI generativa riduca l’attività cerebrale, affievolisca la memoria a breve termine o spinga i soggetti a copiare frasi anziché generarle, come sostiene la recente ricerca del MIT, non dice nulla di rilevante sulla nostra intelligenza, ma molto su come viene oggi rappresentata. Ciò che viene misurato in termini di attivazione neurale non è il pensiero, ma una sua manifestazione specifica, culturalmente situata, neuro-tecnicamente osservabile, che viene assunta, senza verifica, come standard desiderabile. Ma se la mente è un processo adattivo, se l’intelligenza è il risultato di una lunga storia di strumenti, scorciatoie e ambienti cognitivi in evoluzione, allora non ha alcun senso rimpiangere una sua forma precedente solo perché diversa o meno misurabile.

L’errore non sta nell’analisi tecnica, ma nella sua lettura morale. La pretesa che un maggiore dispendio cognitivo equivalga a una maggiore profondità è la stessa che per secoli ha giustificato la diseguaglianza culturale. Ma il pensiero, se lo si assume per quello che è,  una funzione emergente, imperfetta, distribuita e continuamente ridefinita dagli strumenti con cui viene esercitata, non perde valore quando si appoggia a una macchina. Lo perde solo quando abdica alla sua autonomia. Ed è questo il punto centrale: l’intelligenza artificiale, se usata senza intenzionalità, può atrofizzare la mente; ma se integrata in un processo consapevole, può espandere le condizioni stesse della possibilità di pensare.

Il problema, dunque, non è se la AI generativa ci rende più stupidi, ma quale architettura cognitiva rende possibile e a chi. Il nodo è sempre quello: chi ha diritto di parola, chi ha accesso agli strumenti della formazione del pensiero, chi può permettersi di trasformare il proprio linguaggio in potere. Perché la verità è che questa tecnologia, lungi dal rappresentare una minaccia per l’intelligenza, rappresenta semmai un attacco al suo monopolio. Per la prima volta, il talento non è più ciò che distingue, ma ciò che può essere esercitato anche da chi non ne detiene le credenziali. La scrittura, il ragionamento, l’argomentazione, per secoli prerogative di una minoranza formata e abilitata, diventano improvvisamente accessibili, imitabili, apprendibili. In un certo senso, è come se l’AI cominciasse a estendere, da un’altra direzione, l’ambizione più alta della scuola: non sostituendola, ma affiancandola in un compito diverso, più immediato, più poroso, meno vincolato ai tempi e ai luoghi dell’istruzione formale. Dove la scuola lavora per formare cittadini pensanti nel lungo periodo, l’AI apre varchi improvvisi nel presente cognitivo, offre appigli, modelli, possibilità di esercizio per chi altrimenti resterebbe fuori dalla soglia.

Ma lo sappiamo: è già successo. Dicevamo così anche di Internet, del Web, delle piattaforme partecipative, dell’intelligenza distribuita. E poi abbiamo visto come è andata a finire. La promessa di accesso si è rovesciata in centralizzazione, la partecipazione in dipendenza, l’orizzontalità in sorveglianza. Proprio per questo oggi non basta usare l’AI: serve un salto di metodo, una ricerca collettiva, una riappropriazione politica e culturale della sua architettura. Lo spazio cognitivo non si democratizza da solo. Va disegnato, custodito, conteso.

In questo senso, parlare di “decadenza cognitiva” significa ignorare che ciò che chiamiamo intelligenza non è mai stata una proprietà privata della coscienza, ma una strategia. E qui si inserisce il pensiero più radicale: la mente non è un’entità interiore che produce pensiero, ma un’interfaccia che coordina comportamenti, seleziona routine, organizza conflitti tra moduli in competizione. La coscienza stessa non è altro che una narrazione utile, una finzione operativa, uno stratagemma evolutivo per dare coerenza a processi che non l’hanno per natura. Se cambia l’interfaccia, cambia la forma della coscienza. Non si estingue: si riconfigura.

È un’intuizione che attraversa in profondità il pensiero di Daniel Dennett, forse il filosofo contemporaneo che più ha insistito sul fatto che la mente non è un contenitore ma una configurazione dinamica, una macchina di finzioni utili, capace di adattarsi, simulare, coordinare. Per lui, la coscienza non è un’essenza da proteggere, ma una funzione emergente da reinterpretare ogni volta che cambia l’ambiente cognitivo. È proprio questa plasticità, questo statuto narrativo della mente, che ci permette oggi di pensare l’intelligenza artificiale non come un nemico del pensiero, ma come una soglia evolutiva che ci costringe a ridefinirne i confini, la forma, i legittimi proprietari.

Se c’è un pensiero che può aiutarci a sottrarci alla retorica del decadimento e della perdita, è proprio quello che considera la mente non come un contenitore da riempire o da svuotare, ma come un’interfaccia evolutiva, una macchina di coordinamento tra moduli disallineati, un insieme di strategie di sopravvivenza narrate a posteriori. Pensare non significa custodire un’essenza interna, ma riuscire a selezionare, tra infinite possibilità, quelle configurazioni cognitive che ci permettono di orientare il comportamento in contesti instabili. La coscienza, in quest’ottica, non è un luogo da difendere, ma una finzione operativa, utile finché funziona. E se questa finzione cambia forma perché cambia lo strumento con cui viene attivata, non è una perdita. È un’evoluzione.

Dentro questo schema, l’intelligenza artificiale non può “sostituire” la mente, perché non c’è nulla da sostituire. C’è solo da riconfigurare l’ambiente in cui il pensiero emerge, si struttura, si rende utile. Il vero pericolo non è che l’AI ci renda meno intelligenti, ma che ci abitui a confondere l’efficienza con la coscienza, la fluidità con la profondità, l’accesso al codice con il controllo del sistema. E proprio qui, dove la mente si mostra per ciò che è, una strategia adattiva e mai un’essenza, sta la vera posta politica della sua ridefinizione.

E allora il panico che si agita dietro le reazioni a questa ricerca non riguarda il cervello, ma il potere. L’AI non impoverisce le funzioni cognitive: mette in discussione i criteri con cui le abbiamo tradizionalmente attribuite. Permette a chi ne era stato escluso di esercitarle in forme nuove, ibride, ancora imperfette ma operative. Non sostituisce il merito: ne redistribuisce le premesse. Non cancella il talento: ne abbassa la soglia d’accesso. È qui che si gioca la posta. Non nella qualità del pensiero, ma nella sua democratizzazione.

Naturalmente, nessuna vera redistribuzione avviene senza tensioni. Il rischio di scambiare la democratizzazione del talento con una sua omologazione è concreto. Se tutti accedono agli stessi strumenti, se tutti si affidano a modelli addestrati sugli stessi corpora, se tutti cominciano a pensare attraverso le stesse interfacce – allora il pensiero che si genera, per quanto formalmente corretto, rischia di diventare una variazione interna a un paradigma già deciso altrove.

Il talento non è solo scrivere bene o argomentare in modo ordinato. È anche, e forse soprattutto, saper deviare. Saper sorprendere, contraddire, dire l’indicibile, portare nel linguaggio qualcosa che ancora non ha una forma. Se la mente è una costruzione evolutiva, come sappiamo, allora il suo valore sta nell’essere imperfetta, porosa, fallibile, e dunque aperta alla mutazione. L’intelligenza artificiale, per sua natura, tende invece a mediare, a convergere, a chiudere entro range statistici ciò che invece dovrebbe restare eccentrico.

La democratizzazione del pensiero non è, in sé, una garanzia di pluralismo. È una soglia, non una salvezza. Se oggi l’AI permette a chi è stato escluso di esercitare forme di ragionamento, scrittura, argomentazione prima inaccessibili, lo fa senza distinguere tra libertà e ripetizione, tra invenzione e adattamento. È vero: il talento smette di essere un privilegio. Il merito non è più un titolo ereditario. L’intelligenza diventa imitabile, apprendibile, persino simulabile. Ma questa stessa apertura può contenere un’insidia profonda: che tutto diventi visibile, ma nulla più eccedente. Tutto accessibile, ma niente più irriducibile.

Perché se il pensiero si esprime solo attraverso le strutture che lo rendono accettabile al modello, se ogni forma di intelligenza deve risultare compatibile con l’algoritmo, allora la redistribuzione si paga con un costo occulto: la scomparsa dell’anomalia, dell’inatteso, del fuori-formato. L’AI può aiutarci a pensare meglio, ma può anche abituarci a pensare solo ciò che è già pensabile. Può restituire accesso, ma al prezzo di riscrivere i confini del possibile.

Ecco perché il problema non è la stupidità. Il problema è l’illusione di pensare, dentro un sistema che ha già deciso come dev’essere un pensiero accettabile. È lì che la democratizzazione rischia di diventare un nuovo ordine. E se non ci riappropriamo anche della capacità di pensare fuori scala, fuori forma, fuori predizione, allora l’intelligenza, per quanto diffusa, non sarà mai davvero nostra.

Poi resta l’altra questione, più strutturale: chi possiede lo strumento? La narrazione della democratizzazione si regge su una premessa fragile: che l’accesso all’intelligenza artificiale sia equo, aperto, negoziabile. Ma la realtà è che i modelli più avanzati, quelli che definiscono oggi ciò che appare “intelligente”, sono sviluppati, controllati, modulati da una manciata di aziende private, distribuite in poche giurisdizioni geopolitiche.

L’illusione è che, siccome lo strumento è accessibile via browser, allora il potere sia distribuito. Ma se lo sviluppo, l’addestramento, l’orientamento e perfino la censura dei modelli avviene sotto il controllo di soggetti opachi, in ambienti chiusi, con finalità commerciali e vincoli politici, allora la tanto invocata democratizzazione rischia di essere un’operazione cosmetica. Non stiamo entrando in un’era di pluralismo cognitivo, ma in un nuovo regime epistemico in cui la forma del pensiero è definita a monte, e l’originalità diventa un errore di sistema.

La questione non è tecnologica, né neuroscientifica, né etica. È una questione di disintermediazione cognitiva. Non stiamo diventando più stupidi. Stiamo diventando più equivalenti, non nel senso di più liberi, ma più compatibili. Più riconoscibili dal sistema, meno dissonanti, meno eccedenti. È questa forma di equivalenza, questa capacità dell’AI di rendere tutto leggibile, tutto accessibile, tutto comparabile, a produrre la vera crisi. Una crisi non del cervello, ma della sua legittimazione sociale. Perché se ogni voce deve farsi forma accettabile per entrare nel discorso, allora il pensiero stesso si riduce a ciò che può essere riconosciuto.

E allora sì, forse le AI generative ci fanno risparmiare sinapsi. Ma quello che restituiscono, quando non ci si limita a subirle come un suggeritore automatico, è la possibilità di interrompere il monopolio sulla forma legittima del pensiero. Non ci rendono capaci di pensare: quella capacità c’era già, diffusa, ignorata, negata. Ci offrono, semmai, un accesso diverso al campo in cui il pensiero viene riconosciuto come tale. È una soglia, non un dono. Uno strumento, non un’abilitazione.

Il pensiero umano, nella sua dimensione più profonda, non si lascia normalizzare. E se l’intelligenza artificiale ha un valore reale, oggi, è solo nella misura in cui può aiutare a rendere visibili altre forme del pensiero, altre traiettorie logiche, altre posture cognitive che non coincidono con quelle codificate da un sapere elitario. Non si tratta di sembrare pensanti, ma di liberare il pensiero dai vincoli culturali, istituzionali, retorici che ne hanno definito per secoli la legittimità.

E questo, in ultima analisi, è il nodo. L’intelligenza non è in pericolo perché la AI la sostituisce. È in pericolo quando lasciamo che sia definita solo da ciò che la macchina può replicare, da ciò che i suoi architetti decidono di farle riconoscere. 

E dobbiamo anche ricordarlo, senza illusioni: questa intelligenza non l’abbiamo decisa noi. Nella stragrande maggioranza dei casi, non è stata pensata per espandere l’umano, ma per servire gli interessi di chi ne detiene la governance, l’infrastruttura, la traiettoria futura. Se oggi può aiutarci a pensare meglio, è solo a condizione di rinegoziare radicalmente il suo disegno, la sua proprietà, il suo scopo.

Democratizzare il talento non significa omologare l’intelligenza. Significa, al contrario, riconoscere l’intelligenza dove prima non veniva vista. E difendere le condizioni materiali e politiche perché possa emergere, anche fuori formato, anche fuori sintassi, anche contro le probabilità. E questo,  più della stupidità, è ciò che molti non sono ancora pronti a tollerare.

Immagine. Thomas Demand – “Control Room” (2011). Ricostruzione in carta di una sala di comando, perfetta nei dettagli ma completamente finta. Perché: sembra reale, ma è una simulazione della simulazione. Come la AI generativa: struttura, superficie, accesso. Ma dentro, nessuna coscienza. Solo ripetizione. La messa in scena dell’intelligenza.