Le leggi sulla AI le fa, per ora, la Silicon Valley

In questi giorni si sta decidendo se l’AI Act europeo diventerà norma, se sarà riscritto oppure abbandonato per ripartire da zero. Certo è che in questo ultimo anno la AI soprattutto quella generativa come gli LLM, ChatGPT per intenderci e gli altri, sono emersi prepotentemente nell’uso e anche nel dibattito politico economico e sociale cambiando le carte in tavola. Per ora soprattutto Francia, Germania e Italia sono preoccupate perchè l’AI act potrebbe rallentare, a dir loro, lo sviluppo dell’intelligenza artificiale e delle aziende in Europa. L’idea di alcuni paesi UE è quella di avvicinarsi più a un modello come l’ordine esecutivo californiano sulla AI generativa. In breve per quel che si legge  AI Act europeo e  l’Ordine Esecutivo sulla AI della California, che rispecchia in parte il Blueprint for an AI Bill of Rights della Casa Bianca, rappresentano due approcci distinti nella regolamentazione dell’intelligenza artificiale e riflettono le diverse priorità e contesti in cui sono stati sviluppati.

Per confrontare l’Ordine Esecutivo N-12-23 della California con l’AI Act europeo, occorre considerare che l’AI Act dell’UE è una proposta di regolamento che mira a stabilire norme armonizzate per lo sviluppo e l’uso dell’IA all’interno dei paesi membri dell’Unione Europea. Esso classifica i sistemi di IA in base al livello di rischio e stabilisce regole specifiche per ciascuna categoria.

L’Ordine Esecutivo della California, sebbene sia incentrato sull’IA, si focalizza specificamente sull’Intelligenza Artificiale Generativa e stabilisce azioni e rapporti che le agenzie governative devono intraprendere a livello statale. È un documento che mira a promuovere l’uso etico e responsabile della GenAI, mentre l’AI Act dell’UE ha un approccio più ampio e regolamentato che copre tutte le forme di sistemi di IA, con obblighi legali dettagliati per i sistemi ad alto rischio e divieti per quelli che presentano un rischio inaccettabile.

L’AI Act europeo si caratterizza per un approccio più orientato alla comunità. Adotta un sistema di classificazione basato sul rischio per i sistemi AI, distinguendo tra rischi inaccettabili, alti, limitati e minimi. Questa regolamentazione, orientata alla sicurezza e alla protezione dei diritti fondamentali, mira a prevenire l’uso dannoso o abusivo dell’IA, tutelando i cittadini da potenziali minacce alla loro privacy, sicurezza e benessere. Ciò si allinea con una visione più cauta e controllata dello sviluppo dell’IA, mettendo in primo piano la responsabilità sociale e la protezione dei consumatori.

Al contrario, l’Ordine Esecutivo della California sembra essere più in linea con le esigenze delle aziende tecnologiche, enfatizzando l’innovazione e l’utilizzo responsabile dell’IA nel settore tecnologico. Questo ordine si concentra su come l’IA può essere utilizzata per migliorare i servizi governativi e promuovere un ecosistema di innovazione sicuro e responsabile. Mostra un approccio favorevole allo sviluppo e all’adozione dell’IA, con un’enfasi sulla promozione della crescita economica e del progresso tecnologico.

Entrando un po’ più nello specifico nei diversi contesti:

1) Ambito di Applicazione:
L’AI Act europeo si applica a tutti i sistemi AI che vengono messi sul mercato, messi in servizio o utilizzati nell’UE. Questo include non solo gli sviluppatori e i distributori nell’UE, ma anche i fornitori globali che vendono o rendono disponibili i loro sistemi o i risultati di questi all’interno dell’UE. Tuttavia, ci sono eccezioni, come i sistemi AI sviluppati esclusivamente per scopi militari o per la ricerca scientifica, e i sistemi AI open source (con alcune specifiche restrizioni).
L’Ordine Esecutivo della California, invece, è più focalizzato sul contesto statunitense, concentrando la sua attenzione sullo sviluppo e l’uso responsabile dell’AI all’interno dello Stato della California.
2) Approccio Basato sul Rischio:
L’AI Act europeo adotta un approccio basato sul rischio, classificando i sistemi AI in quattro categorie: rischio inaccettabile, alto, limitato e minimo/nullo. I sistemi a rischio inaccettabile sono vietati, mentre quelli ad alto rischio sono regolamentati in modo più rigoroso.
L’Ordine Esecutivo della California, sebbene metta in evidenza l’importanza dell’uso responsabile dell’AI, sembra meno focalizzato su una struttura di classificazione basata sul rischio e più orientato verso la promozione di un ecosistema di innovazione sicuro e responsabile.
3) Valutazione e Conformità:
Per l’AI Act europeo, i sistemi AI ad alto rischio devono soddisfare vari requisiti, come la gestione del rischio, la governance dei dati, la documentazione dettagliata e l’obbligo di sorveglianza umana. Gli sviluppatori possono autovalutare e autocertificare la conformità dei loro sistemi AI con i requisiti descritti nell’AI Act.
Nel contesto della California, l’ordine esecutivo sembra più concentrato sulla valutazione dei casi d’uso significativi dell’AI per lo Stato e sul coinvolgimento attivo della forza lavoro statale e degli esperti nel processo.
4) Impatto e Implementazione:
L’AI Act europeo, una volta adottato, richiederà che l’UE e i suoi stati membri stabiliscano strutture di supervisione e dotino queste agenzie delle risorse necessarie per far rispettare il regolamento.
In California, l’ordine esecutivo mira a promuovere un approccio collaborativo tra il governo statale e gli esperti del settore per valutare e indirizzare l’uso dell’AI.

Dunque mentre l’AI Act europeo enfatizza la protezione e la regolamentazione per mitigare i rischi, l’Ordine Esecutivo della California si concentra sull’incoraggiamento dell’innovazione e sullo sfruttamento responsabile dell’IA, evidenziando un approccio più orientato al settore aziendale e alla crescita economica. E’ evidente come queste differenze riflettano non solo le priorità divergenti in termini di politica tecnologica ma anche i diversi contesti culturali e sociali in cui questi regolamenti sono stati formulati. Certo c’è bisogno di una visione e di norme globali, inutile fare le leggi in Europa mentre chi sviluppa la AI, vedi Silicon Valley, segue altre regole. Un approccio più deliberativo e continuamente aggiornato forse aiuterebbe.