Il pericolo non è che la AI diventi come noi. Il pericolo è che noi diventiamo come la AI.

Non basta dire che l’intelligenza artificiale sta cambiando tutto. Lo si ripete ovunque, ma quasi sempre senza sapere cosa vuol dire davvero. Cambia perché costringe a rimettere in discussione i criteri stessi di realtà, non solo i modelli economici o produttivi. Cambia perché introduce un agente non biologico dentro l’arena delle decisioni, della parola, dell’immaginazione. Non è solo una questione di automazione o di sostituzione del lavoro. Cambia perché modifica il modo in cui decidiamo, parliamo, immaginiamo. Cambia perché inserisce logiche estranee nel cuore delle nostre relazioni e decisioni.

L’AI non ha esperienza del limite. Ma la maggior parte dei sistemi che la usano, o la sviluppano, non lo considera un problema. Anzi, lo considera un vantaggio. La sofferenza non è computabile, quindi è inefficiente. Non ottimizza. Non contribuisce al risultato.
Ma è esattamente questo il punto: l’intelligenza artificiale non ha un corpo, non ha storia, non conosce il limite. Non è pensiero, non è esperienza, non è soggetto. Anche se la stiamo usando come se noi fossimo oggetti e lei il soggetto. È tecnologia; e come ogni tecnologia, restituisce ciò che le è stato dato in ingresso, secondo regole che qualcuno ha scritto. Nessuna generazione di senso, solo calcolo. Nessuna comprensione, solo correlazione. Parlare di “coscienza artificiale” è un errore di prospettiva: si confonde lo strumento con il soggetto, la simulazione con la realtà.

La logica computazionale ragiona per obiettivi definiti, minimizzazione della perdita, massimizzazione dell’efficienza. Ma la vita reale funziona in altro modo. È fatta di ambiguità, contraddizione, tensione non risolvibile. Non si può addestrare un modello perché provi un lutto, né si può chiedergli di reggere il peso di un dubbio morale. La coscienza non è una funzione obiettivo.

Il problema, allora, non è se l’AI ci supererà. Il problema è cosa ci rimarrà, una volta che avremo delegato a lei tutte le decisioni in cui era necessario sostare nella complessità. La AI sta diventando la prima tecnologia “soggetto” della storia trasformando noi in “oggetto”. La tecnologia, ogni volta che prende il sopravvento, tende a semplificare. Taglia i rami storti. Elimina le deviazioni. Ma è proprio nelle deviazioni che nasce la coscienza critica.

Non sto dicendo che l’AI debba essere fermata. Dico che dobbiamo capire cosa le stiamo insegnando e, soprattutto, cosa ci stiamo dimenticando nel farlo. In ogni algoritmo c’è un’impostazione valoriale, anche se mascherata da neutralità tecnica. Ogni dataset è un condensato di decisioni politiche, culturali, sociali. Se continuiamo a pensare che questi strumenti siano solo neutri esecutori, finiremo per adattarci noi ai loro vincoli, non il contrario.

Il rischio non è che le macchine diventino come noi. Il rischio è che noi diventiamo come loro. Efficienti, prevedibili, misurabili. Privati dell’ambiguità che ci rende vivi.

Serve recuperare la grammatica dell’umano. Una che non si vergogni della fragilità, che non consideri l’errore una colpa, ma una soglia. Una che non chieda alla tecnologia di salvarci, ma che la riporti nel perimetro della responsabilità collettiva. Perché finché non saremo disposti a trattare la tecnica come qualcosa che ci attraversa, ma non ci definisce, continueremo a costruire strumenti senza sapere perché. E ogni strumento, alla fine, si trasforma nel suo padrone.

Ma la questione non è se l’AI sarà mai “etica”. La questione è chi decide cosa significa essere etici, e con quale potere.

Le grandi narrative sull’“etica dell’AI” rischiano di diventare, già oggi, un’operazione di marketing regolamentare. Un linguaggio rassicurante che permette ai grandi gruppi di controllo dei dati, Google, OpenAI, Microsoft, Amazon, Alibaba, Baidu, Tencent e gli altri, di apparire come garanti di uno sviluppo “responsabile” mentre consolidano infrastrutture proprietarie opache, sistemi chiusi, modelli non controllabili. La vera partita si gioca sulla governance dei modelli, sulla proprietà degli ambienti computazionali e sull’accesso alle risorse materiali (dati, energia, hardware, manodopera). Non sul dibattito etico- tecnologico a uso convegnistico.

Non è importante, oggi, sapere se l’AI diventerà più “intelligente” di noi, o se potrà un giorno imitare le emozioni. È importante sapere chi la addestra, con quali dati, per quali scopi, e quali margini abbiamo per intervenire. È qui che si misura la nostra libertà.

La retorica sull’AGI, l’intelligenza artificiale generale, tende a distrarre da questo. Il futuro delle macchine senzienti è sempre a vent’anni da adesso. Nel frattempo, però, decidono già le assunzioni, le diagnosi, le carcerazioni preventive, le priorità infrastrutturali, gli algoritmi di guerra. Lo fanno ora. E non serve che siano coscienti per essere pericolose: basta che siano efficienti e impunite.

Serve una critica del potere computazionale. Serve una capacità diffusa di leggere le architetture dell’intelligenza automatizzata per quello che sono: estensioni tecniche di una volontà. Non “intelligenze autonome”, ma strutture logiche costruite per servire chi ne ha il controllo.
Questa volontà è oggi quasi interamente concentrata in mano a soggetti privati sovranazionali. Con una visione del mondo estrattiva, accentrata, predittiva. Una visione in cui l’imprevedibilità, cioè l’umano,  è un rischio da gestire, non un valore da difendere.

Il vero problema non è l’intelligenza artificiale, ma la sua centralizzazione. Il fatto che, anche quando apparentemente “democratica” o “open source”, resti comunque legata a infrastrutture computazionali e finanziarie inaccessibili alla maggior parte dei cittadini, dei territori, delle comunità. Il fatto che si stia creando un nuovo monopolio globale, mascherato da innovazione.

E allora non si tratta solo di pretendere AI “etiche”. Si tratta di ripensare da zero i modelli di proprietà, i diritti sui dati, le architetture distribuite, l’autonomia territoriale sul digitale.
La battaglia è lì. Non nella coscienza delle macchine, ma nella coscienza di chi le programma, le regola, le vende, le impone. Spetta ai territori e alle comunità stabilire cosa serve, cosa è accettabile e cosa no, cosa deve essere e come deve essere la AI.

Se c’è un punto cieco, non è nella tecnologia. È nel nostro sguardo.

Immagine: “Il filosofo in meditazione” – Rembrandt (1632)
Un uomo immerso nell’ombra, accanto a una scala a chiocciola, simbolo dell’introspezione e della coscienza come labirinto. La scala è tutto ciò che manca alla macchina. È il simbolo di un percorso non lineare, non programmabile, che si sale vivendo. L’intelligenza umana non si riduce mai a una funzione obiettivo.