Figure 3 è il nuovo robot umanoide di Figure AI, alimentato dal sistema Helix, presentato alcuni giorni fa. Al minuto 1.30, ma se vi va guardatelo tutto, il cane insegue una pallina lanciata dal robot. È una scena potente e più rivelatrice di quanto sembri. La tecnologia non è più fuori da noi, ma con noi, dentro gli spazi relazionali più intimi.
Chi ci sta addomesticando? Perché non è la tecnologia in sé a farlo. Sono coloro che la progettano, la finanziano, la governano. Gli architetti della nuova intimità non sono circuiti o software: sono gruppi industriali, fondi d’investimento, startup miliardarie e infrastrutture cognitive globali. La domesticazione non è neutra, né casuale: è orientata e ha obiettivi precisi. Certo scrivere che la tecnologia ha uno scopo è una banalità perchè ogni artefatto ha uno scopo: è costruito per ottenere un effetto. Ma non è questa intenzionalità che fa problema: è il modo in cui diventa struttura della vita quotidiana e architettura dell’esperienza. Il problema non è che le tecnologie sono orientate, ma chiedersi: orientate verso cosa? E da chi? Non è un destino, ma una direzione e è proprio questo il nodo: la regia non è tecnica, è politica.
La domesticazione non è mai stata un atto unilaterale. Lupi e umani si sono coevoluti, così come grano e agricoltori; non c’è un soggetto e un oggetto, ma un sistema che cambia insieme. Non siamo mai stati padroni assoluti e il rapporto con la tecnica è sempre stato di co-costituzione. Ma oggi qualcosa è cambiato: non nella logica della relazione, ma nella sua infrastruttura. La parte coevolutiva non è più biologica: è industriale, computazionale, centralizzata e la tecnologia non si adatta a noi ma viene progettata per adattarci a lei. Chi disegna gli algoritmi disegna anche il comportamento sociale che li circonda. Code is Law scriveva Lessig.
Il cane che distingue è certo solo un pretesto, per me un dispositivo retorico, perchè il punto vero è che noi iniziamo a non distinguere più. E allora la coerenza del gesto basta a scivolare nell’affetto, così come il corpo, nostro e altrui, cominci a rispondere prima ancora di sapere a chi. E se la differenza non è più rilevante nel vissuto, allora la soglia non viene superata: viene resa irrilevante. Non c’è bisogno di collassare la distinzione tra umano e macchina, basta che diventi inutile.
E quella scena è inquietante, almeno per me, non perché la macchina sia ostile, ma perché la nostra soglia emotiva è sempre più accessibile, attivabile, riproducibile. La mia inquietudine segnala un attrito, non un destino, ma è proprio questo attrito, tra gesto familiare e agente artificiale, a rivelare che qualcosa si muove nelle nostre strutture percettive.
E tutto questo non è un’evoluzione spontanea, ma una strategia: colonizzare l’intimità per rendere l’interazione una piattaforma, la fiducia un’interfaccia, la casa un mercato. La coabitazione con le macchine non è un destino: è un disegno. Immersi in interazioni fluide e domestiche con sistemi artificiali, potremmo smettere di distinguere chi ci parla, o ci guarda da che cosa.
A scanso di equivoci: non mi inquieta l’idea di un robot che mi osserva mentre giro in mutande per casa. Il problema non è certo la macchina in sé; mi inquieta che tutto questo possa accadere senza che ce ne accorgiamo, senza che ci venga insegnato a nominarlo, senza che sviluppiamo gli strumenti per conoscere, senza che la politica indichi una strada. Mi inquieta che la trasformazione dell’intimità in piattaforma venga accettata come naturale, come utile, come neutra. Mi inquieta che l’educazione politica a queste tecnologie venga omessa, mentre ci si limita a celebrarne l’efficienza. Il vero pericolo non è il robot domestico: è la rimozione sistematica del conflitto, della scelta, dell’alternativa.
Quel momento in cui il cane corre a riprendere la palla non è un esperimento di robotica: è una profezia etologica. È un video costruito per generare una duplice reazione: fascinazione e inquietudine. La comunicazione di Figure AI lavora proprio su quel confine emotivo: non mostra la potenza tecnica, ma la normalità dell’integrazione. Niente laboratori, niente test solo una casa, un cane, una palla, una cucina; è lì che il perturbante lavora, non nella distopia ma nella familiarità.
Ciò che affascina è la naturalezza del gesto, la fluidità con cui il robot partecipa alla vita quotidiana, l’assenza di goffaggine meccanica. Ma ciò che inquieta è lo stesso motivo: la scomparsa della differenza; il robot, secondo le strategie di Figure AI, non vuole più imitare l’uomo, ma abitare lo spazio umano, con una grazia quasi impersonale.
È qui che si affaccia la teoria dell’Uncanny Valley, quella sensazione disturbante che proviamo quando qualcosa appare quasi umano, ma non abbastanza. Figure 03 sembra proprio evitarla. Non ci inquieta per ciò che gli manca, ma per quanto è riuscito a colmare quel divario. Il robot non ci appare più come quasi umano ma come sufficientemente umano da rendere la differenza irrilevante. In questa nuova etologia artificiale, il cane è solo il primo test: il prossimo saremo noi.
Ma niente è già scritto. L’idea che il futuro sia sigillato nella traiettoria autonoma della tecnologia è la vera illusione. Il determinismo tecnologico è la forma più sofisticata della resa: fa sembrare inevitabile ciò che è semplicemente lasciato senza conflitto. Ma la tecnica, come ogni ecologia, può essere riscritta, ridomata, ridistribuita. C’è bisogno non di rifiutare la macchina, ma di riprendersi il disegno per reimparare a distinguere chi ha lanciato la palla per davvero.
Immagine: screenshot video di Figure AI