AI vs non AI

Cosi la distinzione normativa dell’AI ACT assume un carattere ideologico. Nel momento in cui la produzione di contenuti tramite AI viene sottoposta a obblighi di certificazione, etichettatura e tracciabilità, essa diventa più facilmente governabile. Se la capacità di produrre simulazioni viene sottratta o resa onerosa per il pubblico diffuso, mentre resta pienamente accessibile a chi dispone di risorse, infrastrutture e competenze riconosciute, l’informazione tende a ricentrarsi verso i soggetti già forti. Non è censura diretta, ma riequilibrio del controllo: si riduce il rumore prodotto dal basso e si preserva l’autorità di chi può continuare a produrre contenuti senza dover giustificarne ogni volta la legittimità.

Con l’entrata in vigore del nuovo AI Act, l’Unione Europea ha scelto di affrontare il problema dei contenuti sintetici AI intervenendo sul piano della trasparenza tecnologica, stabilendo che i contenuti generati o manipolati da sistemi di intelligenza artificiale, quando capaci di apparire come reali, debbano essere dichiarati come tali attraverso etichette, watermark, metadati o altri strumenti di disclosure ritenuti tecnicamente appropriati. La logica è semplice, quasi rassicurante: se l’utente sa che un contenuto visivo è stato prodotto da un sistema di AI, allora può ricalibrare la propria fiducia, rinegoziare il rapporto con ciò che vede, ridurre il rischio di essere ingannato. L’AI Act tenta di governare l’immagine come se fosse il principale vettore di verità, mentre lascia il testo, che struttura altrettanto e forse più, il senso del mondo, quasi completamente libero.

È una scelta comprensibile sul piano amministrativo, ma anche sul piano politico-strategico europeo, perché oggi l’Unione dispone di margini di intervento quasi esclusivamente regolativi: non controlla le grandi piattaforme, non guida l’innovazione industriale su scala globale, non possiede infrastrutture cognitive comparabili a quelle statunitensi o cinesi, e finisce quindi per esercitare il proprio potere? soprattutto attraverso le regole. Proprio per questo, però, è anche una scelta profondamente insufficiente sul piano cognitivo e che non aiuta i cittadini europei, anzi. Assume che il rischio risieda nello strumento e non nella funzione che il contenuto svolge nello spazio pubblico. In altre parole, si decide che il problema è l’intelligenza artificiale in quanto tale, non il regime di verità dentro cui le immagini e le narrazioni circolano già da anni.

Una quantità enorme di contenuti che oggi circolano come documentazione del reale è già costruita quasi interamente in ambienti sintetici come il 3D. Per 3D non intendo soltanto il cinema digitale, ma l’intero ecosistema di simulazioni spaziali, ricostruzioni urbane, modelli industriali, visualizzazioni scientifiche, rendering pubblicitario, ambienti immersivi, gaming,  che oggi alimenta decisioni, percezioni e credenze collettive, spesso senza alcun obbligo di trasparenza. Spot automobilistici realizzati su strade che non esistono, rendering immobiliari che anticipano edifici mai costruiti, simulazioni industriali, immagini di città, infrastrutture, disastri, prototipi, persino scene di vita quotidiana che non sono mai avvenute così come vengono mostrate. Il 3D non è più umano, non è meno software, non è meno capace di disinformare. È semplicemente una tecnologia già assorbita culturalmente, mentre l’AI non lo è ancora. Il ray tracing non è più vero di una GAN: è solo più vecchio, più deterministico, più normalizzato. Non si tratta di una deriva futura, ma di una prassi industriale pienamente consolidata.

Così sostenere che il rischio specifico derivi solo dall’AI generativa diventa una semplificazione fuorviante. È vero, è un punto che vale la pena esplicitare, che oggi l’AI è molto più accessibile: strumenti generativi potenti sono a disposizione di chiunque, con soglie di competenza minime e costi marginali prossimi allo zero. Il 3D, al contrario, resta in larga parte un territorio più artigianale, più legato a competenze specifiche, a tempi lunghi, a filiere professionali strutturate. Ma proprio questa differenza non riduce il rischio, lo sposta. L’effetto cognitivo è lo stesso: la produzione di immagini e narrazioni che funzionano come tracce del reale. Un contenuto 3D può disinformare esattamente come un deepfake generativo e in molti casi può farlo in modo ancora più efficace, perché non porta con sé lo stigma semantico dell’AI-generated, perché è storicamente normalizzato, perché il pubblico è abituato a fidarsi di quel linguaggio visivo e perché spesso nasce all’interno di filiere professionali, istituzionali, commerciali, non ai margini del sistema informativo. Dal punto di vista percettivo e tecnico, inoltre, nulla impedisce a un rendering 3D di essere più realistico, più controllato e più credibile di molti output generativi AI.

La norma lavora su un presupposto implicito che meriterebbe di essere messo radicalmente in discussione, ossia che conoscere la fonte tecnica di un contenuto sia sufficiente per ricalibrare il proprio giudizio. Ma questo presupposto confonde la causa con l’effetto. La disinformazione visiva ovviamente non nasce perché qualcosa è prodotto da un’AI, ma perché un oggetto visivo o narrativo viene fatto passare per traccia del reale, indipendentemente dal fatto che sia stato girato con una camera, modellato in 3D, generato da una GAN o composto da un team di VFX altamente qualificato.

Uno spot automobilistico che mostra un’auto in presunte condizioni reali su strade inesistenti, con dinamiche fisiche ottimizzate e scenari impossibili, è già una simulazione performativa della realtà, perfettamente capace di orientare percezioni, desideri e credenze. Se lo stesso linguaggio visivo viene traslato in un contesto politico, ambientale o informativo, la capacità di inganno resta identica, perché l’ontologia dell’immagine non cambia: cambia soltanto il contesto d’uso e il patto implicito con chi guarda.

Cosi la distinzione normativa dell’AI ACT assume un carattere ideologico. Nel momento in cui la produzione di contenuti tramite AI viene sottoposta a obblighi di certificazione, etichettatura e tracciabilità, essa diventa più facilmente governabile. Se la capacità di produrre simulazioni viene sottratta o resa onerosa per il pubblico diffuso, mentre resta pienamente accessibile a chi dispone di risorse, infrastrutture e competenze riconosciute, l’informazione tende a ricentrarsi verso i soggetti già forti. Non è censura diretta, ma riequilibrio del controllo: si riduce il rumore prodotto dal basso e si preserva l’autorità di chi può continuare a produrre contenuti senza dover giustificarne ogni volta la legittimità.

Dichiarare che un contenuto è generato da AI non risolve nulla se il pubblico non possiede gli strumenti per interpretare cosa significhi davvero quella dichiarazione, se i contenuti circolano sistematicamente estratti dai metadati e se la forma visiva continua a funzionare come prova implicita, come evidenza del reale.

C’è poi lo scenario post AI ACT, che è avverso e già scritto: campagne di disinformazione costruite con pipeline ibride, che combinano 3D classico, motion capture, fotografia reale e ritocchi generativi minimi, progettate apposta per restare sotto la soglia normativa dell’“AI-generated content”, formalmente impeccabili e cognitivamente devastanti. L’AI ACT, così com’è, le vedrà arrivare senza riconoscerle, perché guarda la tecnica e non la funzione, il mezzo e non il patto di verità.

Anch’io faccio una fatica quotidiana, spesso estenuante, a distinguere ciò che è vero da ciò che non lo è, a orientarmi in un flusso continuo di immagini, dati, ricostruzioni, affermazioni che pretendono tutte, indistintamente, di essere credibili. Lo facevo già prima quando la AI era dentro in pochi software. E non esiste una postura innocente, né una competenza che metta definitivamente al riparo.

Proprio per questo continuo a scegliere, una strada più lenta e meno rassicurante della AI ACT: quella degli strumenti critici di lettura. Che significa studiare, accumulare contesto, fare esperienze dirette, esporsi al mondo, costruire relazioni, confrontarsi, sbagliare e correggersi. Non perché questo garantisca la verità, ma perché è l’unico modo che conosco per non delegare interamente ad altri, a un’autorità, a una piattaforma, a un algoritmo, il potere di dirmi che cosa è vero e che cosa è falso. Se però la norma produce effetti redistributivi sul controllo dell’informazione, ricentralizzando l’autorità simbolica nelle mani di chi già dispone di risorse e infrastrutture, allora diventa evidente che la risposta non può essere soltanto educativa. L’alfabetizzazione critica è necessaria, ma non sufficiente: occorre aprire una discussione più esplicitamente politica sulle infrastrutture, sulla redistribuzione degli strumenti di produzione simbolica e su forme di controllo collettivo delle piattaforme che organizzano la visibilità e la credibilità. Finché continueremo a normare le tecnologie invece del regime di verità delle immagini, continueremo a rincorrere l’ultima tecnica lasciando intatto il meccanismo che rende possibile l’inganno. E su questo punto, nessun watermark potrà aiutarci, perchè la verità non è razionale ma relazionale.

Immagine: Control Tower (Area 52); Tonopah Test Range, NV; Distance ~ 20 miles; 11:55 a.m., 2006 di Trevor Paglen. Paglen lavora sulle soglie della visibilità istituzionale, fotografando infrastrutture militari e siti classificati da distanze estreme, fino al limite fisico della visione, per mostrare che ciò che appare come realtà è sempre il risultato di una decisione tecnica e politica su cosa può essere visto, a quale risoluzione e da chi.