Il DARPA CODE (Collaborative Operations in Denied Environment) program è un’iniziativa della Defense Advanced Research Projects Agency (DARPA), l’agenzia del Dipartimento della Difesa degli Stati Uniti responsabile per lo sviluppo di tecnologie emergenti per l’uso militare. Il programma CODE è stato ideato per aumentare l’efficacia di sistemi aerei non pilotati (UAV) o droni in ambienti ostili o negati, dove la comunicazione e il controllo possono essere limitati o inesistenti.
In parole semplici è un progetto di sviluppo di armi che uccidono secondo le decisioni dell’intelligenza artificiale.
Sono le LAWS (Lethal Autonomous Weapons Systems, ovvero Sistemi di Armi Autonomi Letali). Tra queste ad esempio le Armed Unmanned Aerial Vehicles, UAV, i droni militari che sembrano essere utilizzati nel massacro di questi giorni in Palestina. I sistemi di armi autonome localizzano, selezionano e attaccano obiettivi senza intervento umano e diventano letali quando tali obiettivi includono esseri umani.
Ma c’è un passaggio ancor più terribile che potete trovare dentro al progetto CODE.
Il passaggio è quello che menziona lo sviluppo di veicoli aerei che operano “proprio come i lupi cacciano in branchi coordinati con una comunicazione minima” e si riferisce a un concetto avanzato di automazione e collaborazione tra droni.
In natura, i lupi cacciano in gruppo utilizzando complesse strategie cooperative, basandosi su segnali sottili e intuizione collettiva piuttosto che su comunicazioni esplicite o direttive centralizzate. L’obiettivo di DARPA CODE è replicare un approccio simile nella tecnologia dei droni eliminando la comunicazione con gli umani.
I motivi di questa ricerca principalmente sono:
1) Coordinamento e collaborazione autonomi: dove i droni sono capaci di prendere decisioni intelligenti in modo indipendente, simile all’istintiva cooperazione dei lupi durante la caccia; 2) Comunicazione minimale: che richiede ai droni di operare efficacemente anche con scambi di informazione limitati, replicando la capacità dei lupi di usare segnali non verbali; 3) Adattabilità e flessibilità: permettendo ai droni di modificare rapidamente le loro strategie in risposta a cambiamenti imprevisti, proprio come i lupi adattano le loro tattiche di caccia; 4) Sopravvivenza ed efficienza: con i droni che ottimizzano le loro rotte e strategie per massimizzare l’efficacia e minimizzare i rischi, simile all’efficienza energetica dei lupi durante la caccia; 5) Cooperazione intelligente: dove i droni utilizzano l’apprendimento automatico e l’intelligenza artificiale per migliorare collettivamente le loro strategie operative, riflettendo l’intelligenza collettiva dei lupi.
Anche qui in poche parole il progetto tende a far si che queste armi autonome, abbiano degli agenti morali artificiali (AMA, Artificial Moral Agents) che decidano al posto degli umani. L’agente morale artificiale è un concetto emerso nell’ambito dell’intelligenza artificiale e della filosofia dell’etica. Si riferisce a un sistema di IA o a un robot che possiede la capacità di fare scelte o prendere decisioni basate su considerazioni morali o etiche. In altre parole, un agente morale artificiale è progettato per agire in modo etico, tenendo conto dei principi morali nel suo processo decisionale.
In senso più ampio, l’etica della macchina comprende la deliberazione sulle implicazioni morali della moralità artificiale a livello individuale e sociale. Con una serie di domande che per ora sembra interessare poco il dibattito pubblico. E questo andava bene finchè avevamo a che fare con un agente morale artificiale come quello che sta nell’aspirapolvere Roomba; ma che diventa un problema diverso oggi che le armi autonome volano sopra le nostre teste. La moralità artificiale è una cosa moralmente buona? Ci sono campi di applicazione in cui non dovrebbero essere impiegati agenti morali artificiali, se dovrebbero essere utilizzati? Ci sono decisioni morali che non dovrebbero essere delegate alle macchine? Qual è lo status morale e legale degli agenti morali artificiali? Gli agenti morali artificiali cambieranno la vita sociale e la moralità umana se diventano più pervasive?
Ma esiste un buon agente morale, un agente che vuole bene all’umanità? Secondo la visione utilitarista di Mill, un agente è considerato moralmente buono se il suo comportamento contribuisce positivamente al benessere generale della comunità morale. In questo contesto, un robot potrebbe essere considerato moralmente buono se programmato per agire in linea con il principio di utilità, a prescindere da come raggiunge questo risultato comportamentale. Tuttavia, per Kant, giudicare un agente come moralmente buono implica valutare i suoi processi deliberativi interni. Dal punto di vista kantiano, creare un buon Agente Morale Artificiale (AMA) richiederebbe l’implementazione di specifici processi cognitivi, integrandoli nel processo decisionale dell’agente. Ma è noto che il comportamento umano spesso si discosta dalla moralità accettabile. Gli esseri umani tendono a commettere errori e provare rimorsi per i loro sbagli morali, più frequentemente di quanto si possa ammettere. Mentre tendiamo a tollerare i fallimenti morali umani, non è altrettanto chiaro se dovremmo progettare la capacità di tali fallimenti nelle macchine. Nella progettazione di un AMA, potrebbe essere ragionevole esigere standard più elevati di quelli attesi, ad esempio, dai bambini umani. Gli obiettivi nella costruzione di un AMA dovrebbero mirare non solo alla moralità, ma all’eccellenza o perfetta moralità.
Le decisioni di una macchina che causano danno agli altri sono probabilmente meno tollerate rispetto a quelle umane. In altre parole, ci si aspetta di più dalle macchine rispetto a noi stessi. Sebbene atti di violenza estrema siano inaccettabili sia per gli umani che per gli AMA, evitare comportamenti immorali più comuni come menzogne, inganni e truffe rappresenta una sfida computazionale maggiore. Queste azioni si collocano nelle zone “grigie” della moralità, dove regole come “non mentire mai” hanno molte più eccezioni di regole come “non uccidere mai”.
Se si stabilisce uno standard di comportamento per gli AMA superiore a quello degli umani, da dove emergeranno questi standard? Google fino a pochi anni fa aveva come motto “don’t be evil”; lo dismise quando dalla cultura asiatica arrivò il messaggio che non sempre il diavolo in Asia è un nemico. Come costruire allora una teoria morale universalmente accettata per gli AMA?