Qualche settimana fa ho scoperto che Giorgio Parisi, sì, proprio lui, il premio Nobel per la fisica 2021, aveva condiviso su Facebook un mio post. Lo scrivo con timidezza e non per vantarmi, ma con gratitudine. La stessa con cui, in questi giorni, ho preso in mano il suo ultimo libro: “Le simmetrie nascoste” edizioni Rizzoli.
Alla maturità scientifica avevo portato fisica, ma da allora ho fatto ben poca strada: qualche saggio, qualche conferenza, più ascolto che studio. Eppure leggere Parisi è stato come tornare indietro nel tempo. Mi ha fatto venir voglia di ricominciare il liceo. Non per nostalgia, ma per capire meglio. E proprio mentre lui condivideva quella mia piccola riflessione, io provavo in punta di piedi a entrare nel suo modo di vedere le cose, e a capire perché, secondo lui, la fisica ha molto da dire sull’intelligenza artificiale.
Così, quando è uscito il libro, l’ho letto di getto. E adesso scrivo queste righe con la stessa sincerità, consapevole che potrei sbagliare qualcosa e di questo mi scuso fin d’ora.
Parisi racconta una cosa affascinante: che i principi della fisica possono aiutare a spiegare come funzionano certe intelligenze artificiali, quelle basate sulle cosiddette reti neurali. Queste reti, semplifico, sono programmi che cercano schemi, riconoscono immagini, imparano a prevedere cose. Non funzionano con regole scritte riga per riga, ma con un tipo di apprendimento per tentativi, come se “capissero” qualcosa strada facendo. Non sono certo cervelli, ma ci assomigliano un po’. Ed è qui che entra in scena la fisica.
Nel 1982, un fisico americano, John Hopfield, pubblica un articolo che cambia le carte in tavola. Dice: “proviamo a guardare queste reti non come ingegneri o biologi, ma come fisici”. In pratica, prende l’idea di neuroni che si influenzano tra loro e la semplifica. Impone una regola che in natura non è esatta, che se A influenza B, allora anche B influenza A, ma che gli permette di trattare il sistema come un paesaggio.
Un paesaggio? Radicalizzando la narrazione: immaginate colline, valli, salite e discese. Il sistema, cioè la rete neurale, si muove su questo terreno e tende a fermarsi nei punti più bassi. Quei punti sono gli stati stabili, cioè le situazioni che la rete riconosce o ricorda. La memoria, in questo tipo di intelligenza, non è un cassetto dove mettere le cose, ma un equilibrio provvisorio dentro un paesaggio irregolare.
Questa immagine, spiega Parisi, assomiglia moltissimo a certi materiali strani studiati dalla fisica, chiamati vetri di spin. Non serve sapere cosa siano nel dettaglio. Basta sapere che sono materiali dove le particelle interne tirano in direzioni diverse, e non riescono mai a mettersi d’accordo. Il risultato non è il caos totale, ma una specie di ordine imperfetto, con tante soluzioni possibili. Un equilibrio non perfetto, ma sufficiente per reggere. E ogni equilibrio possibile può rappresentare, guarda un po’, una memoria.
Parisi scrive che le reti neurali e questi materiali, per quanto diversi, obbediscono alle stesse leggi matematiche. Non sono identici, ma funzionano nello stesso modo. E quando questo succede, in fisica si parla di universalità. Cioè: sistemi anche molto diversi tra loro possono condividere una stessa struttura nascosta.
Ed è proprio questa somiglianza profonda che ha permesso alla fisica di dare un contributo fondamentale all’intelligenza artificiale. Non perché sappia scrivere codice, ma perché sa leggere certe forme del disordine, sa riconoscere schemi dove all’apparenza ci sono solo connessioni confuse. La fisica sa modellare l’imprevedibile, sa calcolare quanti buchi di memoria può avere un sistema, sa capire dove potrebbe stabilizzarsi.
La lezione più potente, forse, riguarda cos’è la memoria. Non è un cassetto dove metti un file. Non è una casella con scritto informazione. In queste reti, la memoria è il modo in cui tutto il sistema si mette insieme. Nessuna parte ha tutto il contenuto; è solo l’insieme che trattiene qualcosa. Come uno stormo che vola senza capobranco: nessun uccello sa dove andare, ma tutti insieme lo sanno.
E tutto questo accade non nonostante il disordine, ma grazie a esso. Perché il sistema non può risolvere tutto. E allora sceglie una soluzione possibile, una configurazione che funziona. Non perfetta, ma stabile, non assoluta, ma coerente.
L’intelligenza artificiale non è una macchina ordinata. È un sistema che sa convivere con l’imperfezione. E forse, a pensarci bene, è questo il punto in comune con la fisica: entrambe imparano a leggere il mondo non quando tutto fila liscio, ma quando quasi tutto si tiene. E quando non si tiene, cercano un’altra valle dove fermarsi.
Leggere Parisi, per me, è stato un invito a tornare a fare i conti con quelle domande fondamentali. Quelle che vengono prima di ogni algoritmo. E che chi fa fisica, da Hopfield a Parisi, non ha mai smesso di ascoltare. Leggere Parisi fa bene a chi vuole capire non solo dove va l’intelligenza artificiale, ma dove stiamo andando noi.