Decolonizzare l’intelligenza artificiale

“Visioni simultanee” (particolare), un dipinto di Umberto Boccioni del 1911

“Visioni simultanee” (particolare), Umberto Boccioni, 1911

C’è un nuovo legame anche se antico, soprattutto politico, da un popolo a un altro. È collegato alla rivoluzione digitale. E’ la colonizzazione dell’intelligenza artificiale e dei dati che le servono. È un legame di imperativo economico ma non solo, demografico e strategico. C’è un popolo, Igor Rubinov ricercatore dell’Università di Princeton ha analizzato la provenienza di circa 800 pubblicazioni scientifiche, che fa la maggior parte della ricerca intorno alla AI; Stati Uniti, Europa e in piccola parte Asia.

Quel popolo fa la AI, mentre in molti luoghi del mondo i ragazzi non hanno opportunità di studiare l’intelligenza artificiale, le ragazze e le donne poi sono ancora più colpite. D’altra parte i ricercatori dell’Africa con difficoltà tra costi dei voli, permessi e visti, non possono partecipare alla discussione scientifica internazionale. Così le implicazioni etiche e gli impatti sociali e economici dei modelli occidentali sono molto sbilanciati verso quel popolo. Secondo PwC dei 17,5 trilioni di dollari di ricchezza prodotta dalla Ai da qui al 2030, il 70% finirà in Cina e Stati Uniti.

L’intelligenza artificiale è vista come un ecosistema tra tecnologia e socialità e gli ambienti in cui è sviluppata sono di fatto connessi a questi aspetti sociali. Come immaginiamo e costruiamo la tecnologia collegata alla AI dipende dal sistema sociale in cui viviamo tanto che gli scenari di sviluppo e di applicazione sono molto diversi tra culture diverse e i valori sociali e culturali sono parte importante nel design della tecnologia. Le tecnologie dell’intelligenza artificiale aumentano le divisioni sociali e i gruppi deboli non sono i primi a beneficiare dei risultati positivi. Algoritmi di assunzione di lavoro discriminatori verso le donne, algoritmi di credito razzisti verso le comunità afroamericane e così molti altri esempi possibili.

Chi usa la AI? Se nel design della AI ci sono i comportamenti sociali e culturali di una comunità, lo stesso vale per i dati che la AI utilizza. Come Pollicino lasciamo anche noi ogni giorno delle tracce digitali fatte di molti dati; le persone decidono come e quando e quali raccogliere. Per ora i popoli dei paesi del sud del mondo lasciano molte meno tracce di quelli occidentali. Non sono più solo invisibili ai media e alla nostra attenzione, ora lo sono anche per l’intelligenza artificiale.

Da alcuni anni si assiste a un moltiplicarsi di comitati etici, nel 2018, 16 paesi hanno rilasciato dei codici etici sull’utilizzo della AI. Ma valgono in tutti i paesi? La cultura è un organismo in continua evoluzione e fa i conti quotidianamente con la sua storia, la risposta quindi non è semplice. I sistemi di valore sono diversi e parlare di sicurezza e privacy in Oriente è culturalmente diverso rispetto all’Occidente. Come non sono semplici le traduzione di questi codici nelle lingue diverse. In Brasile il “like” inglese e il “mi piace” italiano di Facebook è tradotto con “curtir” che equivale in italiano più al verbo godere. Un gruppo di indigeni amazzonici che utilizzava una pagina Facebook per testimoniare con dei video gli abusi che subivano da parte di milizie private assoldate da multinazionali agricole, non riuscivano a dare visibilità a questi contenuti perchè gli attivisti tendenzialmente seppur trovassero i video importanti  non cliccavano “curtir” perchè riluttanti a usare il verbo godere su video così violenti e intimidatori. L’algoritmo di Facebook li considerava impopolari e ne riduceva la visibilità.

I principi della AI non sono solo parole, guidano la pratica e comportamenti delle persone. I sistemi di AI cambiano la cultura locale e i comportamenti. Pensare che siano sempre solo sistemi buoni e utili non aiuta. Meglio vederli almeno inizialmente come modelli che disturbano e creano tensioni e attriti sociali. La AI che entra in una comunità è come una pianta infestante  che entra in una piantagione con un ecosistema ben definito. L’approccio deve essere critico, di ricerca  e di comprensione per capire se quella pianta puoi aiutare davvero l’ecosistema. Un sistema di AI che entra in un ecosistema lo modifica e trasforma anche se stesso in qualcosa di nuovo. L’intelligenza artificiale assume forme diverse a seconda delle culture che incontra. E cosa si può dire sui sistemi digitali e la AI e sul mantenimento della pace? Possono offrire modelli sociali molto utili come verificare le elezioni, migliorare il trasporto, l’educazione scolastico, la sanità ma possono essere anche terribili strumenti di sorveglianza e di repressione della libertà. Per comprendere l’etica dell’AI, dobbiamo riflettere profondamente sulla relazione tra società e tecnologia in tutto il mondo. La tecnologia digitale è un’opportunita incredibile per spostare in là il limite umano solo se sapremo riconoscere la finitezza di quel limite e la nostra vulnerabilità e se ci assicureremo che le tecnologie della AI supportino la crescita dell’uomo in tutte le sue comunità.