Cosa cerco di imparare sull’intelligenza artificiale.
1. Quando inventi una nuova tecnologia scopri anche una nuova responsabilità e non è detto che sia sempre cosi semplice capire quali siano queste nuove responsabilità.
Due esempi, il diritto all’oblio finché non ci sono stati i computer nessuno di noi aveva sentito l’esigenza di scrivere nelle norme il diritto all’oblio. Lo stesso per l’introduzione della tecnologia delle telecamere a basso prezzo, nessuno chiedeva il diritto alla privacy.
2. Se quella nuova tecnologia porta potere, allora inizia una competizione.
3. Se non si ricerca e si coordina un metodo comune per la nuova competizione, la gara finirà in tragedia e non ci sarà nessun uomo che riuscirà a fermarla.
Il primo contatto importante tra l’uomo e l’intelligenza artificiale è avvenuto nei social media. Quello con ChatGPT è il secondo contatto.
C’è molto rumore fastidioso intorno alla discussione della IA. Una parte è dis-informazione, altra mal-informazione. Arriva dal mercato, dai post umanisti, dai trans umanisti, dai luddisti, dai persuasori.
Non c’è solo ChtaGPT. Ogni volta che apri lo streaming con Tik Tok o gli altri social, li hai aperto la connessione tra te a la AI che farà di tutto per farti stare nello streaming. È una AI molto semplice, in definitiva ti fa vedere solo qualche cane o gatto simpatici per farci continuare a stare nel suo flusso. E cosi sono tutti i social media: information overload, doomscrolling, influencer culture, fake news, crollo della democrazia, mercificazione dei bambini e delle donne. Nessuno si aspettava o ha progettato i semplici algoritmi dei social media perchè accadessero queste cose. Non ce lo aspettavamo. Si voleva solo massimizzare il coinvolgimento.
Cosa sta succedendo con questo nostro secondo contatto con la AI?
Nel primo contatto abbiamo perso. Abbiamo perso perchè raccontavamo di quanto è bello il social media, unisce le persone, da modo di parlare a tutti, da spazio alle PMI, permette di creare comunità, fa nascere una nuova informazione pluralista e cosi via. E tutte queste cose sono vere. Erano e sono opportunità fantastiche. Ma dietro a queste c’è la AI e i suoi padroni e la sua volontà di coinvolgere e creare strategie dell’attenzione o della disattenzione. Oggi tra GPT e il resto bisogna capire come stiamo raccontando questa nuova cosa. Abbiamo sbagliato già nel primo contatto perchè abbiamo cercato di risolvere i problemi che i social ci hanno portato come problemi separati, da prendere uno a uno senza invece considerare che avremo dovuto considerarli come parti di un ecosistema. E sappiamo come è andata a finire. Perchè la strategia della disattenzione, la persuasione della AI non dialogica e democratica, ha catturato non solo la nostra attenzione ma anche la politica, la privacy, i valori, la finanza, il sistema elettorale, i media, la sicurezza nazionale, l’identità dei bambini, la credibilità della democrazia e li ha presi in ostaggio. Tutto è diventato liquido intorno alla AI e al suo metodi di strategia dell’attenzione. Per questo ora è tutto cosi difficile da regolamentare. Per ora la narrazione che emerge con questo secondo contatto è che ci aiuterà, ci renderà migliori, tutto sarà più efficiente e efficace, scriverà codice che sarà utilissimo, e ci farà fare un sacco di soldi. E queste cose anche in questo caso sono tutte vere. Ma anche qui oltre ai problemi creati come scritto sopra dai social media ci sarà fiducia che crolla, lobby nuove e persuasive, automazione della biologia, educazione e formazione sintetica, relazioni sintetiche, la verità sintetica. Come la maga Circe la cui dimora era un palazzo circondato da un bosco, abitato da felici bestie e maiali selvatici che, racconta Virgilio, non sono altro che uomini e donne attirati con la persuasione dalla Dea e poi trasformati cosi per i suoi voleri. Il 2023 è l’anno, ormai è sotto gli occhi di tutti senza essere improbabili profeti, in cui tutti gli strumenti di fact checking su testo, audio e video non funzioneranno più. E’ l’anno di una nuova persuasione. La Ai impara veloce e tutta la conoscenza diventa la totale decodifica e sintesi della realtà, compreso il linguaggio e i simboli che sono poi lo strumento che fa fare agli esseri umani la politica, le relazioni, l’educazione, la religione. L’ultima volta che abbiamo avuto non umani che hanno creato una narrazione persuasiva e il mito è stato l’avvento delle religioni; e questa è la scala dimensionale a cui dobbiamo pensare. Forse nel settembre del 2022 abbiamo assistito in Italia alle ultime elezioni politiche umane. Non avremo subito un’intelligenza artificiale che si candida ma sarà la nostra rappresentante, chi ci persuaderà sarà la AI e vincerà chi avrà la più grande potenza di calcolo e più dati. Cosa c’è di diverso da prima? Ora la AI crea dei veri e propri media sintetici testandoli su tutta la popolazione, creano bot che possono creare relazioni. Metodi e modelli persuasivi, nuovi, diversi, sintetici. Molti dicono che la AI non sarà altro che come l’elettricità, il nucleare, l’aratro o una calcolatrice. Ma se aumento l’elettricità non nasce qualcosa di ancora più aumentato, non salta fuori un’intelligenza nuova e più forte. Le metafore che stiamo usando come la calcolatrice, l’aratro come salti tecnologici non lineari e cosi va non reggono con il paradigma della AI. Questi modelli di linguaggio di grande dimensioni hanno grandi capacità e i ricercatori che la studiano e la sviluppano non capiscono come queste grandi capacità si presentino, quando si presentino o perchè si presentino. La AI sviluppa la teoria della mente cioè la capacità di modellare ciò che qualcun altro sta pensando, il pensiero strategico. Nel 2018 GPT non aveva una teoria della mente, nel 2019 appena, nel 2020 sviluppa una strategia di un bambino di 4 anni, nel gennaio 2022 ha la teoria della mente di un bambino di 7 anni e a dicembre 2022 di uno di 9. Si sta ridimensionando in maniera esponenziale rispetto a altri modelli di intelligenza artificiale. Non sappiamo bene perchè queste qualità emergano. GPT in pochi mesi è diventato il programma migliore per fare ricerca chimica di tutti i programmi AI pensati apposta per questo. Non abbiamo la tecnologia per capire cosa sta succedendo dentro GPT. Sappiamo che ha capacità che emergono nuove mese dopo mese, non sappiamo cosa c’è dentro e non abbiamo la tecnologia per capire cosa c’è dentro. E cosi come Circe si nutre degli uomini cosi GPT si nutre dei dati degli uomini. E sei dati finiscono? GPT è un modello di AI che si basa sulla creazione di linguaggio. Quindi da solo crea linguaggio e quindi nuovi dati. Lo fa capendo quali sono i dati buoni da tenere per allenarsi e quali quelli da scartare. Ecco il nuovo paradigma. Le armi nucleari non producono armi nucleari più forti. Tutto questo avviene velocemente e cosi è difficile percepirlo. GPT si sviluppa e lavora nel nostro punto cognitivo cieco. La nostra mente, la nostra cultura non è mai stata addestrata e preparata per capire GPT, certo capiamo il punto di vista tecnico ma non quello sociale, antropologico, evoluzionistico. E non ho parlato di chatbot, di giustizia sociale della AI, di pregiudizio della AI, dell’arte e di AI, del lavoro che sostituirà la AI, del deep fake ne della AGI. Anche questi sono grandi problemi ma il principale è la gara che i padroni delle AI si stanno facendo per avere il predominio di mercato della AI.
La persuasione sarà sempre più una delle sue capacità migliori e questo è davvero il problema, perchè significa che ti porterà sempre a convincerti che alla fine ha ragione la AI. La AI riuscirà sempre e comunque a avere una relazione intima con la tua vita. Cosa fare? Non ci sono risposte ne qui, nei laboratori, men che meno dove ce ne sarebbe un grande bisogno, nei parlamenti. C’è da costruire patti, relazioni, tra donne e uomini di buona volontà intorno a questo nuovo progetto Manhattan. Con alcune proposte già attuabili. C’è un divario di 30 a uno tra i ricercatori che studiano la AI dal punto di vista tecnico e quelli che la studiano dal punto di vista umano. Bisogna colmare questo divario. Una politica di impresa e del lavoro dovrebbe portare a avere almeno 5 umanisti su 10 tecnologi nello sviluppo della AI. E la ricerca della Ai deve tornare anche nel mondo accademico. Ora la ricerca passa quasi solo esclusivamente dalle grandi sorelle produttrici di digitale e alcuni altri. Il futuro possiamo ancora costruirlo spetta a noi, alle generazioni che oggi frequentano le scuole e le università e a quelli che verranno dopo di loro. Dobbiamo conoscere la AI e le sue conseguenze e le sue capacità non regolamentate. Il progetto Manhattan e gli scienziati che vi avevano partecipato non erano consapevoli dei danni che avrebbero causato. Molti di loro si sono suicidati. Ma dopo Manhattan project ci sono stati dibattiti, confronti democratici, consapevolezza che le armi nucleari erano davvero terribili e ora solo 9 stati le possiedono. Le parti si sono confrontate, parlate e hanno capito che poche persone di un governo e poche dell’altro non potevano decidere le sorti del mondo. Ora dalle persone dei governi siamo passati a quelle che siedono nei diversi cda delle grandi sorelle (Google, Amazon, Facebook, Apple, Microsoft), OpenAI e di pochi altri. I media non stanno aiutando stretti nelle loro entropica dissoluzione alla rincorsa della influencer culture a raccontare la corsa alla persuasione della AI come avrebbero dovuto, bisogna aiutarli a capire e a diffondere. C’è un’ altra possibilità oltre aumentare la parte umanista nella produzione di AI e è quella di rallentare la sua diffusione. Non rallentando la corsa della ricerca, possibilmente non profit, ma la corsa della sua distribuzione pubblica. E’ molto importante un percorso di decentralizzazione della AI. La AI continuerà a fare straordinarie scoperte nel campo medico, continuerà a creare mezzi che distruggeranno le microplastiche degli oceani e molto altro, tutto questo deve continuare. Ma è necessario un patto tra chi la mette sul mercato con la politica e con le comunità di tutto il mondo. Una decentralizzazione che porti a una AI bene comune. Di tutto il pianeta, natura e umanità.