Il vero valore oggi non risiede più nel contenuto, la foto, il post, la frase brillante, ma nel modo in cui quel contenuto viene generato: nel processo cognitivo, nella forma mentale che plasma ciò che si dice prima ancora che venga detto. Questo sposta il baricentro dell’economia digitale. Non si tratta più solo di vendere, regalare, i propri dati, ma di cedere, silenziosamente, una parte della propria unicità intellettuale.
Uso l’intelligenza artificiale ogni giorno. Lavoro con i miei gemelli digitali. Ma da ChatGPT-5 non mi aspettavo nulla. Forse perché non c’era nulla da aspettarsi: non una nuova grammatica del pensiero, ma l’ennesimo perfezionamento. Da ragazzo mi esaltavo per una scheda grafica, come la Viper che montava chip Nvidia, perché il patto era chiaro: paghi, la installi, giochi meglio. Qui invece la promessa è diventata liturgia. Una litania iperbolica che annuncia “esperti su qualsiasi argomento”, agita la bandiera dell’intelligenza generale come se fosse già tra noi, e poi si inceppa su un’email scritta male. L’incongruenza non sta nell’errore tecnico, ma nella distanza tra la narrazione e l’esperienza concreta. Tra ciò che si proclama e ciò che si vive.
E non è solo un problema di immagine. È una questione di fiducia. Perché questa piattaforma non ha dialogato con utenti occasionali, ma con comunità che hanno investito tempo, intelligenza e adattamento: nella scrittura, nell’insegnamento, nel lavoro, nella ricerca. Un investimento collettivo, ripetuto, profondo. Un patto non scritto, ma sostanziale; ci avete chiesto correzioni, suggerimenti, indicazioni. Noi abbiamo insegnato, non solo al sistema, ma a noi stessi, un nuovo modo di pensare e interagire. E in cambio abbiamo ricevuto la sensazione, forse ingannevole, ma costruita giorno dopo giorno, che il modello apprendesse, che crescesse con noi, che l’esperienza si affinasse attraverso l’uso. Ma quel patto era unilaterale, la comunità ha offerto valore, gratuitamente. E chi detiene la piattaforma ne ha tratto vantaggio: ha consolidato la base di utilizzatori, ha perfezionato l’algoritmo, ha accresciuto la reputazione del prodotto. Ma senza alcun obbligo di restituzione. Perché interagire con un modello linguistico non è come postare una foto: non viene catturato solo cosa produci, ma come pensi. E quel processo, una volta assorbito, non ti appartiene più.
Il vero valore oggi non risiede più nel contenuto, la foto, il post, la frase brillante, ma nel modo in cui quel contenuto viene generato: nel processo cognitivo, nella forma mentale che plasma ciò che si dice prima ancora che venga detto. Questo sposta il baricentro dell’economia digitale. Non si tratta più solo di vendere, regalare, i propri dati, ma di cedere, silenziosamente, una parte della propria unicità intellettuale. Le grandi piattaforme non raccolgono più semplicemente cosa pensiamo, ma come ci arriviamo: la logica implicita, la struttura sintattica, il ritmo semantico, il gesto mentale. Questo solleva domande che, ancora una volta, il diritto di oggi non è attrezzato a formulare. Chi possiede il “deposito” del nostro stile di pensiero? Il diritto d’autore protegge l’opera finita, ma lascia scoperto il processo che la genera. Il rischio è che l’intelligenza artificiale diventi il veicolo di un nuovo tipo di esproprio, più sottile e più radicale, in cui a essere estratta non è più la creatività occasionale, ma l’identità cognitiva stessa.
Se i modelli linguistici vengono addestrati su milioni di micro-decisioni individuali, e restituiscono una forma omogeneizzata e ottimizzata del pensiero, allora siamo davanti a un monopolio della conoscenza che non si limita a gestire i contenuti, ma riscrive le forme stesse del ragionare. In questo scenario, il dissenso, l’errore creativo, la dissonanza diventano scarti da filtrare. L’omologazione del pensiero non è più un rischio laterale: è la condizione strutturale di un’infrastruttura che vive della ripetizione e produce intelligenza normalizzata. E se ogni nostro input diventa addestramento per un sistema che non controlliamo, allora la questione non è più tecnica, non lo è mai stata, ma politica e culturale. Ancora una volta è una questione di potere, Occorrono nuove forme di consapevolezza e una rottura netta con la retorica dell’efficienza. Bisogna iniziare a pensare l’intelligenza, anche quella artificiale, non come una risorsa da ottimizzare, ma come un bene relazionale da proteggere.
Quando parliamo di intelligenza artificiale, spesso dimentichiamo che non è neutra rispetto al tipo di intelligenza che amplifica. L’intelligenza collettiva è quella che emerge da processi lenti, dialogici, aperti al conflitto. Vive nella memoria condivisa, nella possibilità di dissentire, nel valore delle differenze. È politica, culturale, comunitaria. L’intelligenza connettiva, al contrario, è la forma di coordinamento che le piattaforme prediligono: legami deboli, sincronizzati in tempo reale, ottimizzati per l’efficienza, ma incapaci di produrre un pensiero comune. L’AI, se non è progettata esplicitamente per servire l’intelligenza collettiva, tende a rafforzare solo quella connettiva: aggrega comportamenti, replica modelli, riduce le divergenze a scarti statistici. È il modo in cui funzionano le grandi piattaforme: ciò che non si allinea alla media viene filtrato, attenuato o semplicemente reso invisibile. La connessione, in questo schema, non è il punto di partenza per un’elaborazione condivisa, ma il fine stesso: mantenere tutti sincronizzati, uniformi nei tempi, compatibili nei formati, prevedibili nelle reazioni. L’algoritmo diventa un regolatore del traffico cognitivo, non un facilitatore di senso. Invece di moltiplicare le prospettive, appiattisce la mappa: privilegia i percorsi già battuti, penalizza la deviazione, smorza l’attrito. Così l’intelligenza connettiva diventa una forma di coordinamento senza comunità, un sapere senza memoria, una rete senza spessore politico. Non produce linguaggi nuovi, ma li calibra sul grado zero del conflitto; non alimenta immaginari, ma li ricicla in loop, finché la novità coincide con ciò che il sistema è già in grado di riconoscere.
Per questo la ferita è più profonda. Non è (solo) tecnica. È simbolica. GPT-5 avrebbe potuto essere modesto, ma coerente. Invece è apparso disallineato. Non ha tradito una funzione, ma un rapporto: quello costruito nel tempo tra comunità di utenti e chi sviluppa e governa questi strumenti. È stata interrotta una relazione, non con l’algoritmo, ma con l’impresa che lo produce e ne decide la traiettoria. Un patto alimentato da milioni di interazioni quotidiane, sacrificato a logiche che nulla hanno a che vedere con chi lo usa.
E intanto, dietro il sipario, il baricentro reale si sposta. Nonostante le dichiarazioni ufficiali del CEO, secondo cui una quotazione in borsa non è all’ordine del giorno, Secondo quanto riportato da Bloomberg e ripreso da Reuters, OpenAI starebbe valutando una vendita secondaria di azioni: una liquidazione interna che consentirebbe a investitori e dipendenti di monetizzare, fissando così una valutazione implicita attorno ai 500 miliardi di dollari. Non si tratterebbe di un’IPO in senso stretto, ma, come notano diversi analisti, avrebbe un effetto simile: non tanto per raccogliere capitale, quanto per consolidare il posizionamento di mercato. In questo contesto, il lancio di GPT-5 è stato letto da alcuni commentatori non solo come un aggiornamento tecnico, ma come un atto di sceneggiatura: una narrazione pensata per alimentare la percezione di una crescita inarrestabile, più che per rispondere alle esigenze di chi usa questi strumenti ogni giorno.
La questione è quasi per nulla tecnica. È relazionale, politica, simbolica, culturale, forse antropologica. GPT-5 non ha fallito un aggiornamento, domattina magari sarà la migliore AI disponibile: ha rotto un patto implicito. Non scritto, ma sedimentato nell’uso, nella fiducia, nel tempo dedicato da migliaia di utenti che non hanno semplicemente utilizzato uno strumento, ma hanno partecipato a costruirlo. Ecco perché oggi non basta più parlare di versioni, funzioni o prestazioni. Serve ridefinire la cornice. Non chiedere migliorie, ma rivendicare ciò che è nostro: il processo, il metodo, lo stile cognitivo.
L’intelligenza artificiale non è (solo) un prodotto. È una forma di relazione. E ogni relazione, quando viene violata unilateralmente, può e deve essere interrotta. Non per chiudersi, ma per riaprire la possibilità di una tecnologia che sia davvero nostra, non nel possesso, ma nella reciprocità. Non ci serve una nuova versione, non vogliamo GPT-6, vogliamo una contro-tecnologia.
Immagine: Balance di Margot Homan. La figura sospesa in un equilibrio fisico impossibile rappresenta perfettamente quella relazione precaria che descrivi tra chi usa l’intelligenza artificiale e chi la governa. Non è un equilibrio paritario, ma un bilanciamento momentaneo, reversibile, potenzialmente fallace.