C’è qualcosa di antico nel desiderio di conoscere tutto. Ma oggi, in questa nuova epoca dell’Artificene, la conoscenza non si cerca: si raccoglie, si automatizza, si consuma in tempo reale. Le intelligenze artificiali non si limitano più ad allenarsi: imparano da noi mentre stiamo parlando, mentre scriviamo un post, scrolliamo un video, clicchiamo su un link. E più imparano, più diventano brave a restituirci ciò che vogliamo. O che pensiamo di volere.
È uno dei motivi, certo oltre quelli finanziari, per cui proprio ieri Elon Musk con la sua xAI ha acquisito la sua X
Le piattaforme che possiedono questi flussi continui — Meta, Google, xAI — stanno costruendo modelli di intelligenza capaci non solo di rispondere alle domande, ma di anticiparle. L’elemento che le accomuna non è tanto la tecnologia, quanto l’accesso diretto ai dati vivi: linguaggi, emozioni, immagini, affetti, odio, gioia, preoccupazioni. Tutto ciò che ogni giorno milioni di persone depositano su Instagram, YouTube, X. In quei flussi c’è il presente, e soprattutto c’è la possibilità di plasmarlo, trasformando il reale in materiale predittivo.
È questo accesso che marca ancor più la distanza tra chi ha potere e chi non ce l’ha. Non potere astratto, ma capacità effettiva di costruire modelli, definirne i limiti, selezionare ciò che vale e ciò che può essere scartato. Un’università pubblica, un laboratorio indipendente, una comunità di sviluppo open source possono avere infrastrutture potenti, talento e visione. Ma se non accedono ai dati, restano in ritardo. O devono inventare altri modi di allenare intelligenze artificiali: sintetizzando mondi, generando testi, simulando linguaggi.
Non è una differenza tecnica. È una questione culturale, economica, politica. È il modo in cui si ridefinisce il potere di descrivere la realtà — e di modificarla. In uno degli scenari più probabili, chi detiene i flussi di dati e la capacità di computarli accelera, raffina, chiude. I modelli migliorano, la profilazione si fa più sottile, la personalizzazione più precisa. L’AI diventa infrastruttura invisibile della comunicazione, dell’informazione, della produzione di senso. La linea di separazione tra ciò che è umano e ciò che è appreso dalla macchina diventa meno evidente. In questo scenario, la domanda non è più “a cosa serve un’AI?”, ma “chi la guida, su quali dati, per fare cosa?”.
Ma c’è un’altra possibilità, più fragile, meno appariscente. Costruire modelli che non dipendono dal tempo reale, ma da archivi condivisi. Usare dati pubblici, simulazioni, ambienti artificiali. Dataset vivi territoriali e intelligenze artificiali di comunità e di municipalità. Affidarsi alla collaborazione tra enti, cittadini, tecnologi e istituzioni. Richiede tempo, energia, fiducia. Ma apre la strada a modelli che non sono solo tecnicamente efficaci, ma anche comprensibili, controllabili, rinegoziabili. Non sono migliori per forza. Sono diversi. E in un ecosistema sempre più dominato da poche architetture chiuse, la differenza è già un atto politico.
La vera partita, in fondo, è sulla governance. Non solo chi ha i dati, ma chi può accedere agli strumenti per trasformarli. Chi decide i limiti di una simulazione. Chi può chiedere che un modello venga spento, o rivisto, o reso pubblico. Il futuro dell’AI non sarà deciso dalla tecnologia, ma dai margini entro cui sarà permesso a certe tecnologie di agire. Sarà una questione di norme, di istituzioni, di coraggio e impegno civile.
Non ci sarà una sola intelligenza artificiale. Ne avremo molte, diverse, disuguali. Alcune rapide, addestrate su ciò che facciamo oggi. Altre lente, costruite su ciò che vogliamo salvare per domani. Alcune centrali, dentro le grandi piattaforme. Altre periferiche, deboli, ma autonome. Alcune orientate a produrre efficienza, altre a creare senso. In mezzo ci saremo noi, cercando di non essere soltanto utenti o target, ma cittadini capaci di dire: questo è il mondo che vogliamo continuare a chiamare nostro.
La comunità deve decidere cosa e come deve essere l’intelligenza artificiale.