Darwin e ChatGPT

Per secoli abbiamo raccontato l’uomo come eccezione. Non solo una specie tra le specie, ma il punto d’arrivo implicito della storia naturale: l’animale che parla, che misura, che costruisce città, che scrive leggi, che interroga il cosmo e ora pretende di fabbricare intelligenza. Anche quando diciamo di credere in Darwin, spesso continuiamo a pensarci in modo pre-darwiniano: come esito, come vertice, come forma finalmente compiuta.
È questa presunzione silenziosa che l’intelligenza artificiale sta incrinando. Non perché le macchine ci stiano superando, ma perché ci costringono a riaprire una domanda che avevamo archiviato troppo in fretta: l’uomo è una forma stabile o un passaggio? Una sostanza definita o un equilibrio temporaneo tra corpo, tecnica, linguaggio, istituzioni e ambiente?

Darwin aveva già dato una risposta scomoda. Nessuna specie è finale. Nessuna forma vivente possiede garanzia metafisica di permanenza; le specie emergono, si adattano finché regge il contesto che le sostiene, poi mutano o scompaiono. Non c’è una scala che sale inevitabilmente verso qualcosa di meglio. C’è una storia fatta di pressioni, biforcazioni, estinzioni, tentativi riusciti per un tempo e falliti per un altro.

Leggere l’AI come il prossimo gradino inevitabile della stessa scala immaginaria, non aiuta: dopo il fuoco, la ruota, la stampa, internet, ora l’intelligenza artificiale; dopo l’uomo biologico, l’uomo aumentato; dopo la mente naturale, la mente sintetica. È una narrazione potente, ma resta una narrazione. Trasforma decisioni industriali, concentrazioni di capitale, infrastrutture proprietarie e competizioni geopolitiche in destino della specie.
L’intelligenza artificiale non è il passo successivo dell’evoluzione in senso biologico. È qualcosa di più immediato e più concreto: una trasformazione dell’ambiente umano. E quando cambia l’ambiente, cambia anche il modo in cui una specie pensa, ricorda, lavora, desidera, obbedisce, immagina e distribuisce il potere.

Lo abbiamo già visto molte volte, anche se preferiamo dimenticarlo. Gli esseri umani non hanno soltanto abitato il mondo: hanno costruito dispositivi che poi li hanno ricostruiti. Il fuoco non fu solo una scoperta utile, ma una riorganizzazione di dieta, tempi sociali, protezione, cooperazione. L’agricoltura non fu una tecnica neutra, ma la nascita di surplus, proprietà, gerarchie, scrittura contabile, eserciti, epidemie. La stampa non fu solo una macchina per libri, ma una ridistribuzione dell’autorità e dell’accesso al sapere. Internet non fu solo una rete, ma il nuovo habitat simbolico di miliardi di persone.

Allora non mi va di collocare l’AI nella categoria dei gadget evoluti: uno strumento più efficiente, un assistente più rapido, un software molto bravo. No, l’AI appartiene alla categoria degli ambienti; non si limita a fare qualcosa per noi ma ridefinisce il campo dentro cui noi facciamo qualcosa.

Dire che l’intelligenza artificiale è un ambiente e non solo uno strumento chiarisce molto, ma non chiarisce tutto. Anche gli ambienti rischiano di essere mitizzati. Nessuna infrastruttura tecnica plasma gli esseri umani come argilla passiva. La storia mostra il contrario: ogni ambiente viene anche deviato, forzato, riutilizzato contro i suoi progettisti. La stampa fu controllo e censura, ma anche eresia e alfabetizzazione diffusa. La radio fu propaganda, ma anche cultura popolare e controvoce. Internet è sorveglianza e monopolio, ma anche cooperazione distribuita, archivi condivisi, organizzazione dal basso. Lo stesso varrà per l’AI; il potere architettonico delle piattaforme è reale, ma non totale. Tra comando e obbedienza esiste sempre una zona di attrito fatta di usi imprevisti, astuzie quotidiane, sabotaggi, appropriazioni collettive. Ignorarla sarebbe consegnare ai dominanti una vittoria teorica prima ancora che politica.

L’intelligenza artificiale sta già modificando la memoria, non perché cancelli biologicamente il cervello umano, ma perché cambia il valore sociale del ricordare. Sta già modificando l’attenzione, perché la inserisce dentro ecosistemi che competono per catturarla e orientarla. Sta già modificando la competenza, spostando il confine tra chi sa e chi sa usare bene una protesi cognitiva. Sta già modificando l’autorità, perché una risposta immediata e ben formata tende a sembrare vera prima ancora di essere verificata.

Per secoli l’accesso al sapere dipendeva da sacerdoti, archivi, università, professioni, burocrazie. Oggi una parte crescente di quell’accesso passa attraverso interfacce progettate da imprese private, addestrate su dati raccolti globalmente, regolate da logiche industriali e strategiche che pochi cittadini comprendono davvero. Non è solo un dettaglio tecnico, è un mutamento costituzionale del campo cognitivo.

Si dice che l’AI ci libererà dai compiti ripetitivi. Spesso è già cosi e chissà cos’altro può fare che ancora non vediamo. Ma la storia delle tecnologie cognitive non è una storia di liberazione lineare: è una storia di scambi. Molte facoltà che esternalizziamo smettono lentamente di essere allenate, non perché vengano cancellate, ma perché cessano di essere necessarie. E ciò che non è più necessario, in istituzioni che premiano velocità, standardizzazione ed efficienza, viene abbandonato prima ancora di essere perduto. Il problema non è che l’AI ci renda stupidi. È che ridefinisce silenziosamente quali forme di intelligenza meritano ancora di essere coltivate.

Allora quali facoltà umane continueranno a essere esercitate, premiate, considerate necessarie. Una società che delega sintesi, giudizio preliminare, memoria di lavoro, ricerca e formulazione linguistica non produce automaticamente cittadini più liberi per attività superiori. Può produrre soggetti più dipendenti da sistemi che non comprendono. Per questo la metafora più onesta non è quella del superuomo, ma quella dell’addestramento.

Si parla spesso di coevoluzione uomo-macchina con tono armonico. Ma la storia dell’adattamento tra specie comprende anche domesticazione, selezione sotto vincolo, docilità funzionale. Il cane ha sviluppato capacità straordinarie nel rapporto con l’uomo, ma quel rapporto non fu una tavola rotonda tra eguali.

Vale la pena chiedersi se una parte del nostro presente non stia andando in quella direzione: esseri umani progressivamente ottimizzati per vivere bene dentro sistemi automatici, attenzione compatibile con la piattaforma, linguaggio compatibile con il prompt, creatività compatibile con il template, decisione compatibile con il consiglio algoritmico, educazione compatibile con metriche esterne e lavoro compatibile con flussi orchestrati da software.

Qualcuno invoca la scelta democratica della direzione tecnologica. Ma non esiste un noi unitario che decide serenamente il proprio destino. Esistono filiere dei semiconduttori, cloud oligopolistici, capitale finanziario, apparati militari, standard tecnici, diritti di proprietà intellettuale, piattaforme che mediano l’accesso quotidiano al linguaggio. Alcuni progettano, molti usano, tutti dipendono.

Quando diciamo l’umanità decide, spesso copriamo con un plurale morale una struttura di comando molto concreta. Per questo anche l’etica, da sola, serve poco. Manifesti, linee guida, parole come inclusione, trasparenza, responsabilità: utili, talvolta necessarie, raramente sufficienti. Se l’architettura materiale del potere resta intatta, l’etica rischia di diventare il reparto comunicazione dell’asimmetria.

Il ragionamento da fare prima di tutto è uno solo: chi sono i padroni del mondo? (ascoltate il podcast su RadioRai di Luca de Biase). Qui si gioca la partita del secolo, molto più che nei dibattiti sulla coscienza artificiale.

Ah già sulla coscienza artificiale, il vecchio tema dell’anima, conviene prudenza. L’AI non dimostra né che l’uomo sia pura macchina né che esista qualcosa di irriducibile oltre ogni computazione. Costringe però a ridefinire ciò che consideriamo propriamente umano. Forse non un’essenza astratta, ma un insieme di pratiche da custodire: la facoltà di prestare attenzione senza essere catturati, di giudicare senza delegare, di vivere relazioni non ottimizzate, di abitare un silenzio non monetizzato e di restare nell’incertezza senza pretendere subito una risposta.

Non sappiamo se l’AI cambierà un giorno, tra qualche millennio, la biologia della specie. Sappiamo però che sta già cambiando la forma sociale del pensiero. Sta ridisegnando chi viene considerato competente, come si apprende, come si formula una domanda, come si distribuisce il potere cognitivo. E questo basta per considerarla una questione storica totale.

Il becco non lo decide il destino, lo decide l’ambiente. Ma l’ambiente, questa volta, non è la savana o il clima. È un’infrastruttura costruita da soggetti concreti, con interessi concreti, capacità concrete di incidere sulle nostre abitudini mentali.

Eppure nell’uomo c’è sempre stato qualcosa che eccede l’adattamento: la facoltà di dire no quando tutto spinge al sì, di cercare il vero senza ricompensa, di riconoscere nell’altro non una funzione ma un volto, di praticare reciprocità dove il calcolo vede soltanto scambio, di offrire misericordia dove il sistema chiederebbe efficienza o condanna, infine di custodire il silenzio contro il rumore e la coscienza contro l’utilità.

Se questa forza esiste, allora non siamo soltanto una specie che modifica l’ambiente o che ne viene modellata. Siamo anche l’essere capace di giudicare chi lo costruisce, di opporsi ai suoi idoli e di aprire, persino dentro l’isola più sorvegliata, uno spazio di libertà.

Non si decide soltanto che cosa saremo. Si decide chi costruirà l’isola, chi distribuirà il cibo, chi cambierà il clima e chi dovrà adattare il proprio becco alle regole altrui. I fringuelli di Darwin non avevano scelta. Noi, forse ancora per poco, sì.

Immagine: ll Ritorno del figliol prodigo, Rembrandt, 1668. L’abbraccio del padre al figlio inginocchiato. Mani diverse: una più paterna, una più materna. Misericordia che interrompe la logica del merito. In un mondo governato da ranking, performance e scoring, quell’abbraccio è scandalo puro.