L’AI che si profila all’orizzonte non è più uno strumento “di supporto”, ma un attore cognitivo autonomo, capace di alterare il perimetro stesso del diritto. Il pericolo non è solo che sbagli, è che cominci a sostituire il modo in cui la realtà viene percepita, rappresentata, giudicata. E questo avviene non con un atto di forza, ma con una lenta normalizzazione: si entra per semplificare, si resta per sostituire.
Non è il diritto a chiedere alla tecnologia il permesso di esistere. Ma neppure può limitarsi ad assistere, paralizzato e silente, mentre un nuovo ordine tecnico riscrive le condizioni del giudizio, della responsabilità, della prova. L’evento internazionale “AI: Balancing Liberty, Security and Democracy”, organizzato il 10‑11 ottobre 2025 a Lucca con il prezioso lavoro degli ordini degli avvocati di Lucca, Trento e Verona, ha segnato un’inversione simbolica: per una volta, non è stata la giustizia a dover rincorrere l’innovazione, ma la tecnologia a doversi misurare con uno spazio critico costruito da giuristi, filosofi, esperti di sicurezza, studiosi del linguaggio, ingegneri e cittadini. Non per chiudere il discorso, ma per moltiplicarlo. Non per trovare subito le soluzioni, ma per porre le domande giuste. Non per redigere una nuova norma, ma per rimettere in discussione le fondamenta: cosa resta della giustizia quando il giudizio si delega a un algoritmo? Come si difende la democrazia quando la sicurezza diventa automatizzata? E soprattutto: chi decide, davvero, quando la decisione è affidata a una macchina? È stato un gesto raro: chiamare i giuristi non per chiudere il dibattito, ma per aprirlo. Perché l’AI non è più solo uno strumento tecnico: è un’infrastruttura di potere che sfida le categorie classiche del diritto. E il diritto, se vuole restare vivo, deve accettare di essere attraversato da domande scomode. Non può più essere soltanto ciò che regola: deve tornare a essere ciò che interroga. Non è un gesto banale. È un atto politico: mettere il mondo giuridico nella posizione di chi pone domande, non di chi rincorre tecnologie da regolamentare dopo che si sono già diffuse. Il diritto, in questo contesto, deve tornare ad essere speculativo, deve tornare a pensare prima, non solo pragmatico. E una parte importante di questo processo è stato il clima creato dagli organizzatori dell’evento, tra gli altri Flavia Betti Tonini, Francesco Spina e Francesco Tregnaghi: uno spazio non competitivo ma generativo, capace di far dialogare saperi e pratiche, esperienze locali e visioni globali. Un clima che ha permesso di andare oltre l’emergenza e oltre la retorica, per cercare davvero un metodo, e forse un futuro, per l’AI. Perché il futuro dell’intelligenza artificiale non si gioca solo nei laboratori o nei centri di calcolo, ma anche nella capacità di costruire contesti umani in cui domande, dubbi e conflitti trovino spazio prima delle risposte.
L’intelligenza artificiale non è “aria”, non è un flusso etereo: è un attore ecologico concreto. Lo ha ricordato con forza Sebastian Lehuede, docente al King’s College di Londra, che ha spostato il focus dall’astrazione tecnica alla materialità brutale dei territori. L’IA si nutre di energia, acqua, minerali e lavoro sottopagato. Ma i luoghi in cui queste risorse vengono estratte o sacrificate non sono passivi: resistono. Come nel caso di Santiago, dove una comunità ha costretto Google a ritirare un progetto di data center grazie alla mobilitazione contro il consumo idrico in tempo di siccità. O come nelle comunità Likan-tay del deserto di Atacama, dove l’estrazione del litio, ribattezzata “acqua minerale” per aggirare le norme ambientali, viene vissuta come una forma di estinzione culturale. La vera innovazione non è solo nella tecnologia, ma nel diritto delle comunità a dire no. Non si tratta di greenwashing, ma di tornare a vedere: l’AI rimodella, in modo invisibile, l’ecosistema stesso in cui viviamo.
E poi tra le altre decine di relatori, impossibile ricordarli tutti ma qui potete rivedere le giornate dell’evento, quello di Benedetta Galgani che ha messo a nudo il cuore del conflitto tra AI e giustizia penale: non si tratta di integrare strumenti, ma di affrontare una sfida antropologica. L’AI genera un turbamento perfetto nel diritto processuale, dove la tensione tra sicurezza e garanzie non è più solo un problema tecnico ma un trauma culturale. Il rischio maggiore non è la sostituzione del giudice, ma l’erosione della sua autonomia cognitiva: la cattura silenziosa del giudizio umano trasforma la decisione in firma passiva. C’è il pericolo di un uso sistemico ma opaco dell’intelligenza artificiale, aggravato da una governance sbilanciata verso le istituzioni; senza alfabetizzazione critica e responsabilità ontologica dell’utente, avvocato, giudice o assistente, il processo rischia di svuotarsi di senso, trasformandosi in macchina cieca di efficienza. Barbara Marchetti ha mostrato come nella pubblica amministrazione l’AI sia passata da strumento simbolico e trasparente a macchina opaca e probabilistica. Il punto non è solo tecnico, ma giuridico: quando gli algoritmi black box decidono su diritti e benefici, la trasparenza e la partecipazione diventano illusioni. Se l’algoritmo è scritto altrove, e protetto da segreto industriale, l’amministrazione smette di essere sovrana. Marchetti ha evidenziato come il pericolo maggiore non sia nella delega formale, ma nella manipolazione invisibile del giudizio umano: la cattura silenziosa del giudizio umano porta il funzionario a firmare ciò che non comprende. Roberto Loro ha portato uno sguardo concreto e disincantato sul tema della cybersecurity, ricordando che la sicurezza non è un diritto garantito, ma una costruzione fragile e condivisa. L’AI, ha detto, non è né amica né nemica: amplifica le minacce (come nel caso di attacchi di phishing iperrealistici) e rafforza le difese (scoprendo segnali deboli nei flussi aziendali). Ma resta centrale l’elemento umano: fiducia, trasparenza e formazione critica sono oggi più importanti della tecnologia stessa.
La conclusione, che è solo l’inizio della ricerca di un metodo, è che la sfida vera, oggi, non è solo scrivere buone leggi sull’AI. È riscrivere il significato stesso di cosa intendiamo per decisione, per autorità, per verità. Ma è anche riconoscere che stiamo entrando in una fase in cui l’AI non si limiterà più a scrivere sentenze, suggerire precedenti o generare bozze di contratti. Stiamo parlando di sistemi che apprendono dai dati non solo per imitare il linguaggio, ma per intervenire in tempo reale in contesti decisionali complessi: nella gestione predittiva della sicurezza urbana, nell’analisi comportamentale dei cittadini, nella previsione di rischio penale, nella selezione automatica delle priorità giudiziarie. L’AI che si profila all’orizzonte non è più uno strumento “di supporto”, ma un attore cognitivo autonomo, capace di alterare il perimetro stesso del diritto. Il pericolo non è solo che sbagli, è che cominci a sostituire il modo in cui la realtà viene percepita, rappresentata, giudicata. E questo avviene non con un atto di forza, ma con una lenta normalizzazione: si entra per semplificare, si resta per sostituire. È sapere anche che non ci salveranno le architetture normative se non saremo in grado di costruire architetture culturali capaci di restituire senso, responsabilità e discernimento. E questo non si fa con una checklist etica o con un codice a punti. Serve una nuova grammatica politica, serve riconoscere che la giustizia, se resta chiusa nel recinto della giurisprudenza, è già perduta. E che forse l’unico modo per salvarla è proprio smettere di difenderla come una fortezza e ricominciare a praticarla come un esercizio collettivo di immaginazione radicale.
Immagine: “Can’t Help Myself” di Sun Yuan & Peng Yu (2016). Una scultura cinetica robotica che tenta di contenere un liquido rosso che fuoriesce: metafora potente del controllo tecnologico, della delega e del conflitto tra l’umano e la macchina