Il lavoro non è mai solo ciò che si fa, anche con la AI

L’intelligenza artificiale non sta solo sostituendo il lavoro umano. Sta sostituendo il modo in cui il lavoro è messo in relazione. E questa non è una questione morale. È una questione architettonica.

Architettonica, nel senso più pieno del termine. Non ha a che fare con la bontà o la malvagità delle tecnologie, ma con le forme spaziali e operative che esse impongono. Un’architettura è sempre un modo di orientare corpi, flussi, possibilità. Così l’intelligenza artificiale: non è solo uno strumento, ma una struttura che disegna vincoli, incanala gesti, condiziona decisioni. Progetta ambienti cognitivi, ridistribuisce il potere, in modo silenzioso, ma profondo, attraverso le logiche implicite della sua architettura. Parlare di questione architettonica, allora, significa riconoscere che il problema dell’AI non è solo ciò che fa, ma come organizza ciò che possiamo fare. È un problema di cornici, non di incidenti. Non è un oggetto da regolare con principi astratti. È un ambiente operativo, che riorganizza il possibile prima ancora che ce ne accorgiamo. Che ridisegna criteri di decisione, priorità, vincoli, rapporti tra soggetti e che trasforma la grammatica stessa con cui si produce significato.

Quando un’AI sostituisce il lavoro umano, non viene meno solo un ruolo, viene reciso un legame. Un legame operativo tra quella funzione e il suo contesto. Certo è fantastico che l’AI possa sollevare da compiti usuranti, ripetitivi o pericolosi. Non è la mansione in sé a scomparire, ma l’intera ecologia di relazioni che le conferiva senso: conoscenze tacite, attenzioni corporee, memoria situata, codici di interazione non formalizzati. Il lavoro non è mai solo ciò che si fa, ma il modo in cui si entra in rapporto con un ambiente, con altri soggetti, con regole condivise e margini di deviazione. Automatizzando il ruolo, l’AI cancella anche queste tensioni generative. Viene meno la possibilità che quel lavoro sia espressione di un’intelligenza situata, incarnata, collettiva: un’intelligenza che si forma nella reciprocità tra corpo, contesto e comunità, e non può essere compressa in una sequenza ottimale di istruzioni. Non si tratta solo di occupazione, ma di capacità di giudizio; di ciò che tiene insieme un gesto e un mondo.

Questo processo non è nato con l’AI: la meccanizzazione industriale aveva già automatizzato il gesto, e la computazione aveva già standardizzato il calcolo. Ma con l’avvento delle tecnologie predittive e generative, il salto è di scala e di natura: ciò che oggi viene delegato non è più solo l’azione, ma il criterio; non più solo il numero, ma la direzione; non più l’esecuzione, ma l’anticipazione. La macchina non risponde più a un programma: apprende da noi, e nel farlo ci ristruttura. È un ciclo che si autoalimenta, non una catena lineare di comandi.

Abbiamo smesso, o forse non abbiamo mai davvero cominciato, a progettare intelligenze che possano affiancare l’umano senza disabilitarlo. Oggi, le Ai che si diffondono non sono relazionali, non sono situate. Sono progettate per separare, standardizzare, anticipare, per ottimizzare, non per comprendere, per eseguire, non per abitare. Relazione però suona ancora troppo umano-centrico, queste sono forme di coabitazione(*) tra intelligenze diverse. Non per imitare l’umano, ma per accompagnarne la complessità, per sostenere la frizione, il dubbio, l’ambiguità. E forse, per arrivarci, dovremo prima trovare parole nuove. Perché relazione, intelligenza, decisione, così come le usiamo oggi, sono ancora parole che parlano solo e troppo di noi.

La questione non è nemmeno l’intelligenza artificiale in sé, la sua essenza come tutte le tecnologie è, o dovrebbe essere, dare una mano a tutto quello che sta sul pianeta e anche più in là. La questione è l’idea stessa di intelligenza che stiamo usando per progettarla. Un’idea ridotta, lineare, esclusivamente umana. Se vogliamo una AI diversa, dobbiamo smettere di pensare che l’intelligenza sia solo nostra.

Nel vivente esistono forme di coordinamento, memoria e apprendimento che non passano per simboli né algoritmi. Stormi, miceli, barriere coralline elaborano segnali, rispondono all’ambiente, co-decidono. Non sono metafore. Sono processi reali. Intelligenze altre, magari senza coscienza ma con effetto. Se la tecnologia vuole coabitare con il vivente, deve imparare da questi processi senza piegarli ai propri scopi.

Intelligenze non umane, vegetali, fungine, animali, microbiche, iniziano a essere riconosciute come processi cognitivi reali, anche se radicalmente altri. Radici che comunicano, miceli che apprendono, stormi che decidono. I biofilm batterici mostrano una memoria collettiva. Le alghe rispondono a stimoli luminosi in modo coordinato. Le barriere coralline elaborano segnali di pericolo. Il pensiero, in questo scenario allargato, si rivela come una proprietà diffusa, situata, reticolare, intelligenza anche senza cervello, una sensibilità che attraversa le forme di vita come principio di co-organizzazione. Parlare di “memoria” nei batteri o di “decisione” negli stormi non significa proiettare su di essi categorie umane. Significa riconoscere che esistono forme di risposta, apprendimento, coordinamento che non passano per un centro o spesso per un cervello, che non richiedono rappresentazione simbolica o coscienza riflessiva. Sono intelligenze operative, emergenti, sistemiche e proprio perché sfuggono alle definizioni canoniche, vengono spesso ignorate, ridicolizzate, escluse dal computo di ciò che vale.

Se vogliamo costruire intelligenze artificiali capaci di coabitare con l’umano, dobbiamo prima disimparare a pensare l’intelligenza come qualcosa che ci appartiene. Esistono intelligenze che non elaborano simboli, che non decidono secondo algoritmi, che non producono risposte ma orientano interazioni. Intelligenze che non semplificano, ma intensificano. E che, proprio per questo, rischiano oggi di essere escluse, non perché meno complesse, ma perché incompatibili con il modello computazionale che domina la progettazione dell’AI.

Questo è il rischio più profondo: che l’AI, invece di ampliare il campo del pensabile, lo riduca. Che diventi il nuovo filtro epistemico con cui decidere cosa è vivo, cosa è intelligente, cosa vale. Perché ciò che oggi chiamiamo AI non è solo un insieme di tecniche, ma un sistema di decisione collettiva in fieri. E decidere quali intelligenze includere, o escludere, da questo sistema è già un atto politico, ontologico, ecologico.

Non è certo una questione di imitare la natura, ma di imparare a pensare in modo meno antropocentrico. Meno gerarchico, meno lineare. Perché il rischio è che, nell’illusione di costruire intelligenze più efficienti, stiamo recidendo proprio ciò che rende l’intelligenza una forza generativa e condivisa: la sua capacità di emergere tra le cose, non contro di esse.

Per questo non possiamo limitarci a una critica morale o deontologica. Serve una nuova architettura cognitiva. Una progettazione che non disabiliti l’umano per far spazio alla macchina, ma costruisca spazi di coabitazione. Un’AI relazionale non significa un’AI che simuli affetto o empatia. Significa piuttosto un’AI progettata per essere contestuale, adattiva e deliberativa: capace di interagire con ambienti e soggetti in modo non predeterminato. Non ci sono soluzioni ma metodi da ricercare insieme: sistemi che non producono output univoci, ma che offrono possibilità multiple, valutate con e attraverso comunità di riferimento. Serve un’infrastruttura tecnica e giuridica che preveda interfacce riconfigurabili, accesso distribuito ai dati e accountability condivisa nella definizione degli obiettivi. Un’AI che non si impone, ma si costruisce insieme. Significa un’intelligenza artificiale che riconosca i contesti, che si lasci alterare, che non lavori sulla base di standard globali ma di forme locali, comunitarie, dialogiche. Un’AI che non pretenda di essere neutra, ma che espliciti la propria posizione e si sottoponga a pratiche di negoziazione collettiva. Se le fondamenta restano estrattive, proprietarie, centralizzate, nessuna dichiarazione di intenti, soprattutto quelle consolatorie sull’etica, sarà sufficiente. La tecnica non si eticizza, si orienta e l’orientamento è sempre un fatto politico.

Forse è anche da qui che dobbiamo ripartire per affrontare la perdita di lavoro. Non chiedendoci solo quali mansioni verranno sostituite, ma quale idea di intelligenza stiamo autorizzando. E se siamo ancora capaci di immaginare un lavoro che non sia standardizzabile, ma relazionale, situato, aperto all’ambiguità. Un lavoro che non venga misurato sulla base dell’efficienza, ma della capacità di tenere insieme: corpi, ambienti, tensioni. Se vogliamo costruire AI che non sostituiscano ma accompagnino, allora dobbiamo ripensare radicalmente anche ciò che chiamiamo “competenza”. E accettare che la posta in gioco non è il futuro del lavoro, ma il futuro del pensiero.

(*) Metodi coabitativi che descrive Beatrice Chizzola

Immagine: il Giardino delle delizie di Hieronymus Bosch. Un intreccio di forme umane, animali e vegetali, che non rappresentano copie le une delle altre ma mondi diversi che convivono e si intrecciano. Un richiamo visivo che ci ricorda quanto fragile sia la coabitazione tra intelligenze differenti e quanto pericoloso sia misurarle tutte con la stessa grammatica.