Ho incontrato padre Philip Larrey dopo aver ascoltato una sua intervista a Radio24 nella trasmissione Melog di Gianluca Nicoletti.
Padre Philip mentre parla dice spesso il nome della persona con cui si sta confrontando. Può sembrare una cosa scontata ma se ci pensate non capita quasi mai. E’ un modo di porsi che conforta perchè riesce a destare tutta la persona: chi pronuncia il nome riconosce all’altro tutta la sua individualità, il suo essere. E in fondo questo è il tema centrale del confronto che ho avuto con Padre Larrey; all’intelligenza artificiale manca l’essere cosciente. E’ un punto che si ritrova spesso in molti dei sui libri, anche nell’ultimo “Dove inizia il futuro”, quando prova a definire una discussione comune sull’intelligenza artificiale sostenendo che piuttosto che l’intelligenza è la coscienza a non poter essere artificiale. Mentre provo a registrare la conversazione su una delle tante piattaforme di conferenza a cui ormai siamo tutti cosi abituati, Philip Larrey, sta a Roma alla Pontificia Università Lateranense dove è decano e dove insegna filosofia della conoscenza. Sta organizzando un nuovo corso sull’etica delle tecnologie. “Platone e il machine learning” è uno dei corsi da seguire insieme a “Imparare dal Rinascimento per affrontare la rivoluzione digitale”.
Mi racconta della sua infanzia a Mountain View, piccola città agricola dove è nato, importante negli anni ’70 per essere stata la base di una flotta aereo navale dell’esercito statunitense e dopo qualche decennio famosa invece per essere la sede di Google, un segno del destino. Il padre insegnante al liceo e la madre psicologa comportamentale. Della vita a Mountain View, ricorda la famiglia, gli amici ma non torna volentieri nella città dove è nato. E’ una città che chiede molto, estrae e poco da, una città americana. Ho cercato padre Philip perchè avevo sentito in una trasmissione radio un suo pensiero. La prima legge di Asimov sulla robotica, – i robot non posso fare del male all’uomo -, non ha più senso, non vale più dal momento in cui abbiamo progettato delle macchine con una IA che uccide; Armed Unmanned Aerial Vehicles, UAV, i droni militari.
Possiamo provare a impedire che le UAV continuino a uccidere? Stuart Russel dell’Università di Berkley, co-autore de “L’intelligenza artificiale, un approccio moderno”, il libro più utilizzato dalle università sull’intelligenza artificiale, ha provato con un grande lavoro di analisi e di ricerca sulle conseguenze a proporre un trattato per impedire l’utilizzo delle armi autonome letali e proibire la vendita del drone armato. Le Nazioni Unite sarebbero certamente disposte a metterlo in agenda, ma le nazioni e le aziende che li producono lo voteranno mai?
Ci sono ad oggi più di 80 regolamenti etici, di imprese, centri di ricerca e istituzioni su come bisogna progettare la IA e come deve comportarsi. Ma se Facebook o Google non sono d’accordo sono inutili. Se costruisci regolamenti etici sulla IA e sul digitale devi farlo insieme alle aziende che oggi detengono la IA. Deep mind di Google con Demis Hassabis fa delle cose straordinarie con la IA, è un progetto con delle risorse quasi illimitate e decide il futuro degli algoritmi intelligenti. In fondo non sei tu che cerchi un lavoro in una delle grandi multinazionali del digitale, GAFAM, Google Apple Facebook Amazon e Microsoft, ma sono loro che cercano te, cercano le migliori intelligenze del campo, le trovano e è con loro che si deve costruire un’etica della IA; a patto che ci siano di mezzo anche le intelligenze sulle scienze umane a partire dalla filosofia e dalle sue grandi domande. Tutto quello che sta dentro è più potente di quello che sta fuori.
Sullo sfondo, dietro alla scrivania di Padre Philip ci sono centinaia di volumi e con un gesto di condivisione come volesse lanciarmeli al di là della webcam e della connessione, continua a mostrameli, costruendo un percorso della biodiversità del digitale, “Architects of Intelligence”, di Martin Ford, “The Transumanist reader” di Max More, ancora purtroppo non editi in Italia.
Ma la IA è davvero cosi piena di pregiudizi? I pregiudizi della IA dipendono da noi, ma ancor prima che dai programmatori che la sviluppano, dipende dalla politica. Le comunità più povere sono quelli che subiscono la IA ma sono prima di tutto discriminate dal sistema economico e sociale che ovviamente ha dei pregiudizi; pregiudizi che poi arrivano anche nella costruzione della IA.
Certo non ci sono soluzioni per un’etica universale dell’intelligenza artificiale ma si possono definire dei percorsi di ricerca, delle linee guida. Meglio avere una IA che ha un principio etico rispetto a quella che segue delle regole. Si può ad esempio formalizzare l’etica, quella di Aristotele basata sulla felicità, per poi programmare un computer o un robot con questo sistema. “Ma non funziona Michele!” Non funziona perchè Aristotele parlava di un senso etico dell’essere umano che noi non possiamo dare alle macchine. Il senso etico appartiene solo all’uomo. Per dotarle di senso etico le macchine dovrebbero essere coscienti; per avere un senso etico le macchine dotate di IA dovrebbero avere una coscienza, dovrebbero appunto essere coscienti. Ma ammettere che la IA diventa consapevole di se stessa, quindi che è cosciente, è ammettere che gli algoritmi posseggono un’anima come è definito dal principio di consapevolezza di Aristotele.
David Chalmers, uno dei più grandi studiosi della coscienza nel suo libro dice: se noi non sappiamo definire la coscienza, e a oggi non lo sappiamo, è inutile dire che la AI è cosciente. Se non c’è consenso tra le persone su cosa significa essere cosciente è inutile dirlo delle macchine. Filosoficamente non è possibile che le macchine diventino coscienti.
Se noi non possiamo dare loro un senso etico possiamo allora dare delle regole, ma quali? Eric Schimdt, allora CEO di Google in un libro di Larrey diceva – “ok Padre ma che regole gli diamo? quelle del Vietnam, della Polonia, della Francia, della Cina?” Bisognerebbe partire da regole universali. Ma è difficile definire delle leggi universali. “Don’t be evil” il motto di Google poteva essere una legge universale ma Google lo ha tolto perché il significato di evil è diverso tra le culture. Il pensiero filosofico dell’etica è questo: che significa evil?
“Non sappiamo come fare Michele!”. Quindi per ora diamo le regole semplici. Sappiamo che gli algoritmi della IA stanno in una black box ma non sappiamo quasi mai cosa c’è dentro e come pensano. Noi diamo le regole ma le macchine le possono cambiare con gli algoritmi genetici. Apprendono e cambiano le regole. E cos’ la IA si doterà delle regole a lei più convenienti.
E’ possibile immaginare un pensiero intorno al mondo della AI che parta dalla dimensione dell’esperienza spirituale dell’umanità? L’arrivo delle tecnologie ci obbliga a porci sempre più delle domande. Le grandi domande escono dalle chiese e vanno in mezzo all’uomo. Non solo è possibile ma è necessario. Padre Philip deve andare, lo aspettano in una chiesa a Roma dove aiuta. Ci salutiamo con la promessa di rivederci per un caffè e con un pensiero.
Dobbiamo creare una IA che ci vuole bene. L’intelligenza artificiale deve voler bene all’umanità.
Qui il pezzo uscito sul Sole 24 Ore
Il Sole 24 Ore, 30 Maggio 2021