L’AI Act non basta. Ma è tutto ciò che vi resta.

Le 110 aziende, molte enormi, firmatarie dell’appello “stop-the-clock” e che chiede la sospensione dell’AI Act europeo, non parlano per slogan. Nella loro lettera a Ursula von der Leyen parlano di una “bomba a orologeria affrettata” e denunciano un quadro normativo che “mette a rischio le ambizioni di intelligenza artificiale europea”, non solo per chi sviluppa tecnologie, ma per tutti i settori che vorrebbero adottarle su scala. Il cuore del problema, dicono, è la mancanza di certezza giuridica: “Non possiamo conformarci a regole che non esistono ancora in forma praticabile”. Il Codice di Condotta per i modelli generali di IA (GPAI), strumento chiave per guidare la transizione, è ancora assente a poche settimane dall’entrata in vigore degli obblighi. Le imprese temono un “mosaico di regolamentazioni nazionali”, che rischia di frammentare il mercato interno e offrire un vantaggio strutturale ai giganti americani già posizionati. È in gioco la capacità stessa dell’Europa di trattenere capitale, talento e know-how nel settore più strategico del decennio.

L’AI Act è in ritardo. Politicamente, tecnicamente, culturalmente. L’Unione Europea, ancora una volta, si è mossa tardi, male, senza capire fino in fondo la posta in gioco. Ha sottovalutato la velocità dei modelli fondazionali, ha prodotto testi normativi senza dotarsi prima di un’infrastruttura tecnico-industriale autonoma, ha lasciato che le sue imprese arrivassero a chiedere una moratoria su una legge che avrebbe dovuto proteggerle.

È l’ennesima conferma di un’Unione che spesso non conosce nemmeno sé stessa e certamente non conosce le grandi e piccole comunità che la abitano responsabilmente. Troppo attenta al dettaglio procedurale, troppo cieca rispetto agli equilibri di potere globali, e troppo incline ad applicare i propri principi con misura diseguale: inflessibile quando può, accomodante quando vuole. La coerenza, in Europa, resta spesso un valore negoziabile.

Eppure, in questo fallimento c’è qualcosa che non va perso. Perché il GDPR, prima, e oggi l’AI Act, non sono solo regolamenti. Sono gesti culturali. Tentativi imperfetti ma urgenti di costruire una lingua comune dentro un continente frammentato. Non tanto per dire cos’è giusto, ma per affermare un metodo: quello della deliberazione, della responsabilità, della tracciabilità delle scelte. Un metodo che ha un nome, anche se non va più di moda: umanesimo.

Mentre Stati Uniti e Cina si spartiscono la mappa del potere algoritmico, uno delegando tutto al mercato, l’altro al controllo statale, l’Europa prova, pur nel disordine e nell’ambiguità, a dire che esiste un’altra possibilità. Che l’intelligenza artificiale  non è un destino, ma un campo di decisione collettiva. Che non è tutto da regolare, ma nulla può essere lasciato opaco. Il vero punto non è l’etica. O almeno, non in prima battuta. Il punto è il potere. Chi decide cosa può fare un modello, chi lo addestra, chi lo controlla, chi definisce le soglie della sua opacità. Il resto è contorno. La governance, se esiste, deve iniziare da qui.

L’AI Act, nel suo impianto, tenta di intervenire. Ma arriva senza le gambe. Senza il Codice di Condotta pronto. Senza strumenti operativi per le PMI. Senza un ecosistema industriale all’altezza. Ed è per questo che le imprese protestano, non senza enormi responsabilità. Per anni, le imprese europee hanno guardato l’AI da lontano, con un misto di diffidenza e pragmatismo. Alcune hanno integrato servizi statunitensi senza fare troppe domande; altre si sono limitate a lanciare proof of concept, buoni per i comunicati stampa ma incapaci di costruire competenze strutturali. Nel frattempo, mentre nei board si parlava di “trasformazione digitale”, le decisioni vere, su quale modello usare, su quali dati addestrarlo, su dove farlo girare,  venivano prese altrove. Oggi quelle stesse aziende si scoprono vulnerabili, dipendenti, spiazzate da una legge che, in fondo, è anche il riflesso delle loro omissioni. Hanno delegato troppo, investito poco, chiesto tardi. E adesso chiedono tempo. Ma il tempo non è neutrale: in questi mesi di sospensione, i modelli si aggiornano, le API si consolidano, i poteri si cristallizzano. Chi ha lasciato fare ora scopre che non c’è più molto da fare, se non cambiare approccio radicalmente.

Oggi il rischio è che il potere di standardizzazione algoritmica venga definito altrove. E l’Europa resti un continente che verifica ciò che non ha mai avuto la forza di immaginare davvero.

La questione non è se l’AI Act sia perfetto. Non lo è. È in ritardo, è incompleto, è tecnicamente fragile. Ma è tutto ciò che ci resta per evitare che la governance dell’intelligenza artificiale venga dettata altrove — nei board delle big tech o nei gabinetti politici autoritari. Chi oggi chiede di fermare l’orologio non sempre lo fa per costruire meglio: spesso lo fa per guadagnare tempo, consolidare rendite, evitare regole.

E allora sì, servono aggiustamenti, codici chiari, strumenti reali per le PMI. Ma serve soprattutto una visione: non dell’AI come oggetto da regolare, ma come campo di battaglia per ridefinire chi decide, per chi e con quali strumenti. L’Europa ha fallito sul piano industriale, ha esitato sul piano tecnologico. Ma conserva, nella sua storia e nelle sue fratture, un metodo che è ancora praticabile: l’idea che nessuna tecnologia possa essere separata dal contesto umano e politico che la genera.

Allora che fare? Non si tratta di riscrivere una norma, ma di riattivare una possibilità collettiva. Costruire intelligenze artificiali che nascano dentro i territori, alimentate da dati locali gestiti da comunità, cooperative, consorzi pubblici. Promuovere modelli aperti, sviluppati da alleanze europee tra università, enti civici e imprese che non vogliono più solo integrare software altrui ma tornare a progettare. Servono nuove infrastrutture, ma anche un altro metodo: assemblee civiche che decidano dove e come usare l’AI, alfabetizzazione pubblica per comprendere cosa significa delegare una decisione a un algoritmo, fondi che non premiano la velocità ma la trasparenza e la sostenibilità economica e ambientale, l’interoperabilità, la responsabilità diffusa. L’Europa ha bisogno di istituzioni che non si limitino a regolamentare, ma che abbiano il coraggio di sostenere sperimentazioni politiche e tecniche fuori asse.  Se il futuro sarà scritto da chi controlla gli algoritmi, allora l’Europa deve decidere se vuole essere autrice o soltanto mercato. Ma il tempo per deciderlo non è infinito. E l’illusione che si possa rimandare tutto senza conseguenze è la vera forma di irresponsabilità. Perché il futuro non si costruisce con i modelli predittivi, ma con la capacità di immaginare ciò che ancora non esiste. E questo, forse, è l’unico vantaggio che ci è rimasto.

Eppure, e qui sta il punto, c’è qualcosa di più profondo in gioco. Un tratto invisibile, quasi antropologico, che ancora distingue l’Europa: il rifiuto, mai detto esplicitamente ma inscritto nei suoi tentativi normativi, di una tecnocrazia senza volto. L’idea che anche nella fase più buia del proprio smarrimento, l’Europa debba riconoscere che l’umano, nella sua fallibilità, nella sua lentezza, nella sua pluralità, non può essere dismesso. Anche perché l’Europa ha già dimenticato troppe volte l’altra sua ipotesi fondativa: quella della pace e del dialogo, sostituite da retoriche vuote o da silenzi strategici. Non è romanticismo. È un’ipotesi politica. L’unica che ci resta.

Immagine: Paul Klee – Angelus Novus (1920). Il dipinto che Walter Benjamin interpretò come “l’angelo della storia”, spinto in avanti dal vento del progresso mentre guarda le rovine del passato.