Amodei. Ci mancava solo la sua dottrina salvifica della democrazia

Nella sua analisi, per me pessima, Amodei propone, dopo il compitino di essere un buon americano, una moratoria sulla sorveglianza di massa limitata ai confini statunitensi, lasciando aperta la possibilità che gli stessi strumenti vengano impiegati all’estero per finalità di sicurezza e intelligence. La sorveglianza di massa non è solo una violazione della privacy, è un attentato all’identità: l’AI non si limita a spiare, ma ricompone la vita di un individuo in un modello statico pronto per essere processato.
Quando Amodei la legittima all’estero, sta autorizzando l’esproprio della singolarità umana: ogni gesto diventa un’evidenza statistica in un tribunale algoritmico senza appello. Non è più una questione di segreti, ma di dominio ontologico, dove miliardi di persone, non USA, vengono ridotte a profili trasparenti e inermi davanti a una sovranità che ha deciso di cancellare il diritto all’ambiguità per chiunque non abbia il passaporto giusto.
Il codice non possiede una bussola morale che distingua un dato raccolto a Boston da uno raccolto a Gaza; è la decisione politica, di un cda di una azienda, a introdurre quella distinzione razziale. Così l’intelligenza artificiale viene configurata come infrastruttura di sovranità asimmetrica: scudo giuridico per i cittadini interni, occhio pervasivo nelle operazioni esterne.
L’universalismo etico e dei diritti umani universali viene archiviato come retorica d’epoca: al suo posto si impone un criterio di appartenenza che divide il mondo tra vite garantite e vite esposte. I valori democratici non funzionano più come principi, ma come filtri di accesso: dentro il perimetro protezione, fuori sorveglianza. Non è una difesa della libertà, è la sua amministrazione selettiva in nome della supremazia strategica.
E lo stesso vale per la sua dichiarazione sugli agenti morali artificiali. Amodei afferma che questi sistemi non sono abbastanza affidabili per selezionare e colpire bersagli in autonomia. Questa è una posizione tecnica, non morale. Se il problema è solo l’attendibilità, ne consegue che nel momento in cui il tasso di errore scenderà sotto una certa soglia statistica, Anthropic non avrà più argomenti tecnici per opporsi. Stanno riducendo l’etica della guerra a un problema di debugging del software.
L’argomentazione di Amodei implica che un’arma autonoma perfetta sarebbe accettabile. Ma un sistema d’arma che opera a velocità sovrumane annulla il giudizio critico umano anche se un soldato è formalmente presente nel loop decisionale. Se Claude fornisce l’analisi, la simulazione e la pianificazione operativa, l’essere umano diventa un mero passacarte burocratico per un’esecuzione decisa dal calcolo probabilistico.
Sostenere che le armi parzialmente autonome siano fondamentali per la democrazia è un azzardo logico e per me anche non umano. La storia militare dimostra che non esiste una linea netta tra assistenza tattica e automazione letale. Accettando di fornire modelli per la pianificazione operativa, Anthropic sta già fornendo il cervello del sistema d’arma; negare i muscoli è una distinzione ipocrita che serve solo a mantenere una facciata di superiorità morale. E non entro nella discussione se c’è una guerra giusta, non c’è.
Dario Amodei e l’élite tecnologica della Silicon Valley non stanno agendo come scudi della democrazia, ma come i suoi nuovi architetti, pronti a ridefinirla come un regime di supremazia algoritmica. La finta presa di posizione di AModei contro Trump mostra che non siamo di fronte a un moto di responsabilità civile, ma al passaggio verso uno stadio inedito e inquietante del potere. La democrazia cessa di essere un sistema di valori universali per trasformarsi in una proprietà privata del codice, difesa da aziende che decidono autonomamente chi merita protezione e chi deve essere ridotto a bersaglio probabilistico.
Dario Amodei e i suoi pari non sono i salvatori del mondo libero, ma i padroni di un nuovo feudalesimo digitale. Hanno trasformato la democrazia in una proprietà privata del codice, recintata da firewall etici che proteggono solo chi sta all’interno della fortezza. Fuori da quel perimetro, l’umanità viene ridotta a un segnale da processare, un bersaglio da modellare e una vita da gestire secondo logiche di mercato bellico. Non c’è alcuna traccia di progresso in questa visione, solo l’accelerazione verso uno stadio della storia in cui l’uomo non è più il soggetto del diritto, ma l’oggetto residuo di una simulazione di guerra perfetta.
Aggiornamento.
A poche ore dalla rottura pubblica con Anthropic, OpenAI ha annunciato un accordo con il Dipartimento della Difesa per l’impiego dei propri sistemi in ambito strategico e su reti classificate. Secondo le dichiarazioni pubbliche, le clausole richiamano limiti analoghi a quelli evocati nel caso Anthropic: nessun impiego per agenti completamente autonomi nella decisione letale e restrizioni sulla sorveglianza di massa interna. La continuità è più significativa della polemica: ciò che per un’azienda era presentato come limite invalicabile diventa, per un’altra, materia negoziabile dentro una cornice di controllo umano e uso legale definita contrattualmente. Se i termini risultano formalmente simili, allora la differenza non sta nel principio enunciato, ma nel modo in cui quel principio viene assorbito dentro l’architettura operativa dello Stato.

Potrebbe trattarsi, sono ipotesi finché non potremo leggere gli accordi, di un diverso stile negoziale. Stile negoziale significa scegliere di non contrapporsi frontalmente allo Stato, evitare linee rosse assolute, costruire clausole elastiche, offrire formule come supervisione umana significativa o conformità al diritto internazionale senza irrigidire il contratto in limiti operativi tali da bloccare l’integrazione nei sistemi di difesa. È una diplomazia industriale: chi si dimostra più adattabile al lessico della sicurezza ottiene accesso alle reti classificate e ai budget strategici.

Ma potrebbe essere anche qualcosa di più strutturale: non una differenza di tono, bensì una riscrittura del patto tra big tech e Stato. Non più fornitori che negoziano condizioni, ma attori che competono per occupare stabilmente il centro decisionale del complesso tecno-militare del XXI secolo. In questo scenario, la negoziazione non riguarda i limiti del potere, ma la modalità con cui vi si entra.

E forse è proprio qui che tutto ciò che ho scritto sopra acquista ancora più senso. Non si tratta semplicemente di schermaglie industriali né di una disputa morale tra aziende più o meno sensibili. L’etica, in questo scenario, non è il campo decisivo. Il baricentro si è spostato altrove: nella forza dello Stato, nella ridefinizione della sovranità tecnologica, nella competizione per diventare infrastruttura indispensabile dell’impero.
Le divergenze tra aziende contano, ma si muovono dentro uno scontro più grande, dove il codice è potenza e l’accesso alle reti classificate è leva di potere. E dentro questo quadro, lo scontro tra big tech e tra big tech e Stati non è una questione etica, ma una competizione dura per occupare il centro della nuova architettura statale del XXI secolo.

Immagine, Dario Amodei, founder di Anthropic.