

Geoffrey Hinton e Yann LeCun, due tra i padri dell’intelligenza artificiale moderna, sono spesso al centro del dibattito pubblico. Hinton negli ultimi giorni ha ribadito il timore che l’AI, se non dotata di una qualche forma di “istinto materno”, possa rappresentare una minaccia esistenziale per l’umanità. LeCun, in risposta, ha minimizzato la portata dell’allarme, sostenendo che la soluzione consisterebbe nel hardwire, quindi incorporare un comportamento, una funzione o un vincolo direttamente nell’architettura del sistema. Una serie di obiettivi e vincoli comportamentali basilari, come non investire le persone o non agitare coltelli in presenza di esseri umani, così da rendere i sistemi intrinsecamente sicuri. Le loro parole, così come quelle di molti altri, semplificano forzatamente un dibattito che conoscono benissimo nella sua complessità. Non sono tecnologi e tecnocrati ingenui: sono attori politici della scienza, perfettamente coscienti che ogni parola che pronunciano in pubblico ha un peso nella costruzione dell’egemonia cognitiva attorno all’AI. Le loro posizioni, pur collocandosi formalmente su fronti diversi, condividono in realtà un presupposto comune: quello di poter affrontare la questione dell’AI all’interno di una cornice tecnica o etica, evitando di interrogarne la natura politica.
Ed è da questo punto cieco che occorrerebbe partire. Non per mettere sotto processo la competenza scientifica o negare il ruolo storico che questi protagonisti hanno avuto nella costruzione dell’intelligenza artificiale contemporanea, ma per riconoscere che siamo di fronte a una soglia che non può più essere affrontata con gli strumenti del passato. Oggi non basta più produrre conoscenza, né rifugiarsi nel dibattito morale su cosa sia giusto o sbagliato. Serve un altro passo: un attraversamento, uno spostamento, un cambio di posizione.
Hinton, LeCun e altri nomi centrali nella storia tecnica e etica del deep learning hanno alle spalle decenni di ricerca e risultati che hanno trasformato radicalmente le nostre capacità cognitive, industriali, militari, sociali. La loro autorevolezza non è in discussione, ed è proprio per questo che oggi, di fronte all’immenso accumulo di potere e impatto prodotta da questa tecnologia, dovrebbero forse scegliere di non proseguire sulla linea della divulgazione rassicurante o delle semplificazioni morali, siamo pieni di guardrail, ma assumersi fino in fondo il compito di confrontarsi con quella che è, a tutti gli effetti, la questione principale del nostro tempo: la politica della tecnica.
Non si tratta di chiedere agli scienziati di diventare filosofi morali, attivisti o legislatori. La questione non è individuale, né biografica, ma riguarda la posizione strutturale di chi, avendo contribuito in modo decisivo a costruire l’architettura cognitiva del presente, oggi non può più sottrarsi alla domanda su quali mondi quella tecnica renda abitabili e quali invece inabitabili. La presa di parola non è una colpa, ma una condizione minima di responsabilità. Non si chiede conversione, ma, se ne sono capaci, di esposizione.
Il problema non sta nella bontà o cattiveria dell’AI, né nella capacità di inserire al suo interno comportamenti desiderabili o istinti pro-sociali. La posta in gioco riguarda la ridefinizione profonda dei processi decisionali, delle forme del potere, delle modalità con cui si produce sapere, si gestisce la complessità e si costruisce legittimità in un mondo governato da architetture cognitive automatiche. Parlare di “obiettivi hardwire” o di “sottomissione all’umano” come se si trattasse di accorgimenti tecnici equivale a eludere la questione fondamentale: in quali condizioni materiali, economiche e istituzionali queste scelte vengono progettate, implementate e distribuite, e quali visioni del mondo rendono possibile una certa forma di intelligenza artificiale anziché un’altra.
La politica della tecnica non è una branca dell’etica né una moda filosofica. È il campo in cui diventa possibile interrogare il rapporto tra infrastrutture, potere, conoscenza e immaginazione. Significa chiedersi chi possiede i modelli, chi controlla i dati, come vengono allocate le risorse computazionali, quali interessi orientano le traiettorie della ricerca e quali categorie culturali vengono normalizzate nei processi di ottimizzazione automatica.
È vero che non ci sono risposte semplici, e che parlare di “politica della tecnica” può sembrare, a prima vista, troppo ampio, generico, imprendibile. Ciò che manca non è la definizione del problema, ma l’istituzione di spazi dove sia possibile affrontarlo senza ricondurlo sempre a una questione di policy o di compliance. La politica della tecnica non è un programma chiuso né un codice deontologico: è una forma di interrogazione situata, che esige pratiche collettive di elaborazione, conflitto e decisione. Ci sono molte donne e uomini di buona volontà che provano a riaprire una possibilità. Riaprire una possibilità: quella di non rassegnarsi alla neutralizzazione tecnica del conflitto.
Nessun sistema tecnologico è neutro, ogni architettura produce effetti sul mondo: ridefinisce i limiti dell’agire, seleziona le priorità, disegna le possibilità dell’umano. Ci sono analisi incredibili da leggere e non è lo spazio qui per farlo (lascio breve bibliografia certo non esaustiva qui sotto). Marx, Benjamin e Illich e molti altri, hanno dimostrato che la tecnica non è mai separabile dalla storia, dalla cultura, dalle forme concrete della vita sociale. Non è uno strumento che usiamo, ma un ambiente che ci abita e ci trasforma.
In questo contesto, continuare a discutere se sia meglio moralizzare l’intelligenza artificiale o raffinarne i dispositivi di sicurezza rischia di essere una forma di diversione, non perché i temi siano irrilevanti, ma perché restano prigionieri di una logica che presuppone la neutralità del dispositivo. Il problema non è semplicemente decidere cosa sia il bene, ma comprendere chi ha il potere di definirlo, attraverso quali strumenti e con quali conseguenze. Non si tratta di convincere gli scienziati a diventare attivisti o legislatori, ma di riconoscere che ogni scelta tecnico-scientifica è già, inevitabilmente, una scelta politica.
La politica della tecnica non può essere affidata esclusivamente ai comitati etici aziendali, ai CEO delle big tech o a regolatori che arrivano sempre troppo tardi. Deve essere ripensata come compito condiviso, come campo di lotta cognitiva e istituzionale, come forma esigente di responsabilità pubblica. Chi ha costruito le fondamenta dell’intelligenza artificiale contemporanea ha oggi anche la possibilità di contribuire alla definizione di un nuovo modo di abitarla: non attraverso codici di condotta, ma attraverso una riflessione aperta, plurale, situata e radicale su cosa significhi vivere in un mondo dove la tecnica non è più solo un mezzo, ma una forma di governo.
Perché questo avvenga, non serve una sospensione o un silenzio simbolico, ma una presa di posizione concreta delle comunità. Non un ritiro, ma una discesa nel campo: nei territori della decisione pubblica, dell’accesso alle infrastrutture, della regolazione trasparente, della progettazione partecipata. Significa immaginare e praticare istituzioni in grado di ospitare il dissenso tecnico, tavoli permanenti di confronto tra comunità scientifiche, imprese, società civile, territori e saperi non specialistici, occidentali, orientali, africani, americani. Tecnodiversità, noodiversità e biodiversità. Richiede una nuova cultura della responsabilità istituzionale, ma anche l’elaborazione di meccanismi di delega, contrappeso e verifica, capaci di restituire agli spazi pubblici la sovranità sulle scelte infrastrutturali. E sì, comporta anche conflitto: ma non un conflitto astratto, mitizzato, bensì situato dentro i vincoli materiali dell’innovazione contemporanea, segnato da asimmetrie informative, urgenze ambientali, logiche di mercato e temporalità incompatibili. Affrontare la politica della tecnica significa anche accettare questa fatica della mediazione, senza cedere alla retorica della soluzione perfetta né al tecnicismo della rassegnazione. Forse è proprio questo il momento in cui coloro che hanno costruito le fondamenta dell’intelligenza artificiale dovrebbero scegliere di non sottrarsi più. Ma sarebbe ingenuo pensare che questa presa di coscienza possa avvenire per semplice convinzione morale o per pressione argomentativa. Chi oggi detiene il potere tecnico e infrastrutturale è anche vincolato da interessi materiali, da assetti proprietari e da logiche competitive che rendono difficile, se non impossibile, un cambiamento volontario delle regole del gioco. Per questo, ogni proposta trasformativa deve prevedere anche dispositivi esterni di riequilibrio: leve fiscali, strumenti giuridici, forme di condizionamento pubblico, istituzioni in grado di agire come contro-potere reale. Senza questo livello di intervento strutturale, la politica della tecnica rischia di restare una formula aspirazionale, incapace di incidere sulle dinamiche sistemiche che riproducono concentrazione, opacità e asimmetria.
E a margine di tutto questo, un dettaglio che per me è importante: è difficile credere che i protagonisti della scena attuale dell’AI non abbiano letto Isaac Asimov. Le Tre Leggi della Robotica sono patrimonio comune, citate ovunque come modello iniziale di “etica per le macchine”. Ma il punto è che Asimov non deve essere letto come un progettista normativo. Le sue storie non sono prescrizioni da implementare, ma esercizi di fallimento controllato: dimostrazioni narrative del fatto che anche i sistemi di regole più semplici, se inseriti in contesti complessi, producono contraddizioni, ambiguità e conseguenze impreviste. Asimov è stato trasformato in ingegnere, quando era in realtà un narratore di dilemmi morali. Le leggi dei robot non sono garanzie di sicurezza: sono specchi delle nostre illusioni di controllo. Ignorare questa ambiguità, o ridurla a un modello da implementare, non è tanto un tradimento quanto un sintomo della distanza crescente tra cultura tecnica e cultura critica. Non si tratta di proteggere l’opera di Asimov, ma di riconoscere ciò che la sua narrativa ha già anticipato: l’impossibilità di ridurre il conflitto morale e politico a un problema di specifica algoritmica.
Immagine: “Il giudizio di Paride”, Rubens. Come nel mito, gli dei offrono a Paride diverse opzioni, ma ognuna ha un prezzo e scatena un conflitto.