150 milioni di buoni motivi per cui l’Europa ha scelto l’intelligenza artificiale invece dei suoi cittadini.

In un momento storico in cui la concentrazione del potere digitale è senza precedenti, la UE sceglie una riforma che non rafforza la posizione dei cittadini né quella delle imprese europee, ma riorganizza la protezione dei dati attorno alla capacità degli attori potenti di manipolarli. Un continente che per anni ha costruito la propria identità sul GDPR ora inaugura una fase in cui il dato non è più protetto per ciò che è, ma per ciò che qualcuno può farne.
Centocinquanta milioni di euro l’anno in attività di lobbying delle Big Tech a Bruxelles non sono una voce di bilancio ma la dimensione concreta di un’infrastruttura invisibile che lavora ogni giorno per realizzare i desideri dei potenti della AI. Non è un costo; è una forma di presenza continua, una rete di uffici, consulenze, studi, seminari, incontri, analisi, proposte di emendamento e moduli di influenza che occupano gli interstizi della burocrazia europea con la stessa capillarità con cui le piattaforme occupano la nostra vita quotidiana. Con quella cifra puoi mantenere interi piani di edifici a due passi dal Berlaymont, popolati da avvocati regolatori, tecnici di policy, ex-dirigenti della Commissione, analisti in grado di anticipare le evoluzioni normative settimane prima che arrivino sui tavoli istituzionali e team che producono draft legislativi pronti per essere adottati da eurodeputati sovraccarichi di dossier e di scadenze.
Il lobbying digitale è un sistema integrato che entra nei gruppi di esperti, nelle consultazioni pubbliche, nelle audizioni informali, nelle valutazioni d’impatto, nelle note tecniche che spesso diventano la prima versione dei testi legislativi. Con centocinquanta milioni di euro l’anno puoi commissionare studi che dimostrano la non praticabilità di una norma, workshop che formano funzionari pubblici sulle conseguenze economiche dell’eccesso di regolazione, campagne di comunicazione che orientano il dibattito mediatico verso un lessico favorevole alla circolazione dei dati e all’uso intensivo dell’intelligenza artificiale e soprattutto puoi mantenere un flusso costante di interazioni che, senza violare alcuna regola, producono una cosa molto più importante: una cornice cognitiva condivisa.
Il vero risultato di questa infrastruttura non è convincere qualcuno, ma predisporre il campo affinché certe idee sembrino ragionevoli e altre improvvisamente eccessive; perché semplificazione diventi un valore di per sé, perché non restare indietro suoni come un imperativo morale, perché liberare dati per l’AI venga percepito come una necessità tecnica e non come una decisione politica. Quando un attore può permettersi questa capacità di saturazione, non ha bisogno di imporre una posizione: gli basta diventare la condizione di possibilità del discorso.
È dentro questo paesaggio che arriva l’Omnibus digitale della Commissione Europea, parte della nuova Data Union Strategy – Unlocking Data for AI, presentato con la sobrietà che accompagna le riforme che non vogliono attirare attenzione, ma che cambiano l’architettura di fondo.
Il primo snodo riguarda la pseudonimizzazione, cioè il procedimento che toglie il nome dai dati ma lascia intatte le tracce che permettono comunque di risalire alla persona quando si hanno gli strumenti adeguati. Finora era considerata un dispositivo cautelare, una barriera tecnica che separava il dato dall’identità. Ma ora la Commissione propone di stabilire “mezzi e criteri per determinare se i dati pseudonimizzati costituiscano dati personali per determinate entità”. La formulazione è discreta, ma introduce un principio radicale: la natura personale del dato non dipende più da ciò che il dato è, ma da ciò che l’attore può fare con esso. Se un attore non ha i mezzi per identificarti, quel dato può cessare di essere personale; se un altro, più potente, può ricostruire la tua identità, allora quello stesso dato torna personale. La privacy, da diritto intrinseco, diventa una proprietà della potenza.
La seconda linea di trasformazione riguarda la posizione dell’intelligenza artificiale dentro il GDPR. L’Omnibus dichiara che è necessario chiarire che il legittimo interesse possa valere come base giuridica per l’addestramento dell’AI, anche quando questo comporta il trattamento incidentale di categorie speciali di dati, purché siano stati adottati sforzi effettivi per rimuoverli. La Commissione parla di modernizzazione e di allineamento. Eppure questo passaggio, apparentemente tecnico, cambia la funzione del legittimo interesse in canale stabile attraverso cui grandi modelli di AI possono nutrirsi di dati altrimenti inaccessibili.
Il terzo snodo riguarda la struttura complessiva della normativa europea sui dati, Il Data Governance Act viene assorbito per semplificazione dal Data Act; nel momento in cui si riducono gli strati di protezione pensati per difendere i cittadini dal razzismo digitale, la semplificazione ha un effetto inevitabile: riduce la distanza fra interesse industriale e disponibilità dei dati.
L’Omnibus afferma apertamente che l’Europa soffre di “scarsità di dati per l’AI”, che la frammentazione normativa frena l’innovazione, che la priorità è spostare l’attenzione dalle regole ai risultati e rendere più disponibile dato di alta qualità per i sistemi di intelligenza artificiale. Queste frasi delineano una strategia che considera l’AI non come un oggetto da regolare, ma come il centro attraverso cui riorganizzare l’intero sistema di regole.
È qui che la svolta diventa visibile; la Commissione non dichiara ovviamente di voler indebolire i diritti dei cittadini, ma costruisce un quadro in cui la protezione dei dati dipende sempre meno dal loro contenuto e sempre più dal contesto tecnico degli attori che li trattano. Non dichiara di voler facilitare la concentrazione del potere nelle piattaforme, ma produce un impianto in cui la disponibilità del dato e la capacità di trasformarlo diventano criteri determinanti, favorendo chi già dispone dell’infrastruttura necessaria.
E soprattutto non si assume un problema politico: la questione della proprietà dei dati. L’Europa non nomina da sempre la proprietà, non la definisce, non la affronta. Ma proprio questa omissione, mentre si riforma la definizione stessa di dato personale, finisce per consolidare un modello in cui i cittadini non sono titolari di nulla, ma solo generatori passivi; e in cui la sovranità informativa viene implicitamente trasferita a chi possiede gli strumenti per estrarre, correlare e dedurre identità da frammenti minimi.
La conseguenza rendere più labile la protezione, più relative le tutele, più fluida la classificazione, più forte chi dispone della computazione e più vulnerabili coloro che non hanno alcun potere negoziale. In una parola le comunità e i territori. E tutto questo avviene mentre le PMI europee, che la riforma dichiara di voler sostenere mentre sono state massacrate digitalmente per anni, continueranno a rimanere lontane dall’unico fattore che oggi determina competitività: l’accesso a infrastrutture di calcolo e a dataset su scala di piattaforma.
In un momento storico in cui la concentrazione del potere digitale è senza precedenti, la UE sceglie una riforma che non rafforza la posizione dei cittadini né quella delle imprese europee, ma riorganizza la protezione dei dati attorno alla capacità degli attori di manipolarli. Un continente che per anni ha costruito la propria identità sul GDPR ora inaugura una fase in cui il dato non è più protetto per ciò che è, ma per ciò che qualcuno può farne.
La storia insegna che ogni trasformazione tecnica produce una trasformazione politica. L’Omnibus non fa eccezione: istituzionalizza la disponibilità del dato come valore, la pseudonimizzazione come soglia mobile e l’intelligenza artificiale come interesse prevalente. E mentre tutto questo avviene, i cittadini restano al margine esatto da cui l’intero sistema trae nutrimento e le imprese europee continuano a muoversi in un ambiente che semplifica i vincoli ma non riequilibra il potere.
Quando un diritto dipende dalla potenza dell’attore che osserva, smette di essere un diritto e diventa un privilegio negoziabile dentro un’economia dell’informazione che non ammette neutralità.
È certo che dalle istituzioni e dai politici di questa Europa ci si aspetti ambiguità, compromessi e cedimenti, ma assistere a una riforma che ribalta le protezioni dei cittadini mentre recita il lessico della modernizzazione non è un errore: è una scelta politica che tratta la vulnerabilità come materia negoziabile e il potere computazionale come destino inevitabile. Ed è proprio questa deresponsabilizzazione, più ancora della riforma in sé, a ferire davvero.
Immagine: Hans Haacke – MoMA Poll (1970)
Un’urna che chiede ai visitatori se credono che una decisione politica (quella di Nixon) sia dettata dalla volontà popolare o dagli interessi privati. Prova a mostrare che il potere democratico è spesso un teatro; che le decisioni “per il bene comune” sono già incorniciate da forze invisibili.