Come gli Stati regolamentano l’AI al di fuori dell’Europa. Iniziamo con la California (2/2)
Seconda parte della nostra analisi delle proposta di legge californiana sull'intelligenza artificiale, con un confronto con l'AI ACT europeo.
Continuiamo a parlare della proposta di legge californiana, iniziando con l’evidenziare le sua criticità, per poi confrontarla con l’AI ACT europeo, per evidenziarne i punti di convergenza e divergenza.
Critiche e criticità
La proposta di legge (SB 1047) dello stato della California, di cui abbiamo parlato nel precedente numero di LISP definisce i modelli di intelligenza artificiale come sistemi basati su macchine capaci di fare previsioni, produrre raccomandazioni e assumere decisioni, ma regolamenta sostanzialmente solo i covered model che vengono identificati come quei sistemi che utilizzano una potenza di calcolo superiore a 10^26 operazioni intere o in virgola mobile e/o che hanno prestazioni comparabili a quelle di un modello di base all’avanguardia. Restano quindi esclusi tutti i sistemi che non soddisfano questi parametri.
Non sono mancate le critiche anche per altri aspetti.
Open AI, fondata da Sam Altman e nota per il suo ChatGPT, si è espressa contro tale normativa sostenendo che la proposta di legge rappresenta una minaccia per la leadership mondiale della California nel settore AI e per l’innovazione, costringendo ingegneri e imprenditori a lasciare lo Stato in cerca di luoghi maggiormente permissivi.
Jeremy Howard, ricercatore, imprenditore e autore nel campo dell’AI, ha evidenziato come definizioni troppo ampie potrebbero involontariamente penalizzare progetti open-source con rischi minimi. L’obbligo di spegnimento obbligatorio e la richiesta di una rigida conformità colpirebbe in modo sproporzionato gli sviluppatori indipendenti e le piccole imprese, spesso prive delle risorse necessarie per affrontare tali oneri.
Confronto tra l’AI Act Europeo e Safe and Secure Innovation for Frontier Artificial Intelligence Models Act
L’Unione Europea e lo Stato della California stanno cercando di stabilire standard chiari e rigorosi per la gestione e lo sviluppo di tecnologie IA avanzate.
Da una parte, l’AI Act Europeo, pubblicato in GU UE in data 12 luglio 2024, e già in vigore, adotta un approccio basato sul rischio, distinguendo tra sistemi IA ad alto, moderato e basso rischio. L’obiettivo dell’AI Act è garantire la protezione dei diritti fondamentali e della sicurezza, imponendo requisiti specifici per ogni categoria di rischio e richiedendo audit di conformità per le applicazioni IA più pericolose.
Dall’altra parte, la proposta di legge californiana SB 1047, si concentra su modelli IA particolarmente avanzati, che richiedono una gestione scrupolosa dei rischi associati al loro sviluppo e utilizzo. Il disegno di legge si rivolge specificamente a modelli di IA con una potenza computazionale elevata o con capacità estese che potrebbero comportare rischi significativi per la sicurezza pubblica e introduce obblighi specifici per garantire trasparenza, audit annuali indipendenti e la protezione dei lavoratori (whistleblower), offrendo uno strumento legislativo innovativo che mira a prevenire l’abuso della tecnologia IA.
Nonostante le differenze, entrambe cercano di bilanciare l’innovazione tecnologica con la protezione sociale, puntando a gestire il potenziale impatto dell’IA su scala globale.
Conclusioni
Il Safe and Secure Innovation for Frontier Artificial Intelligence Models Act propone meccanismi di controllo e supervisione per prevenire abusi e danni critici, bilanciando le esigenze di innovazione tecnologica con quelle di sicurezza pubblica e trasparenza.
La normativa, discussa ampiamente in Senato e vista come un potenziale modello per una legislazione nazionale sull'IA, mira a fornire maggiore accesso alle informazioni sulle operazioni dei sistemi AI, permettendo alle autorità di garantire un uso responsabile e sicuro della tecnologia.
La seguente tabella illustra i punti di convergenza e divergenza tra queste due proposte legislative cruciali.
Grazie per aver letto LISP!
Nella rubrica Non Solo AI ACT analizzeremo e confronteremo i principali approcci che gli Stati stanno adottando per bilanciare i vari interessi in gioco: tutelare i diritti e incentivare l’innovazione.