Come gli Stati regolamentano l’AI al di fuori dell’Europa. Iniziamo con la California (1/2)
Sembra che siano oltre cento gli stati del mondo che stanno per promulgare una loro propria legge sull’intelligenza artificiale. Iniziamo la nostra analisi dalla California
Mentre siamo tutti concentrati sulla normativa europea, a cui è necessario e continueremo a prestare attenzione, in molti Stati del mondo stanno per essere varate normative interne che regolamentano l’intelligenza artificiale.
Credo sia molto importante conoscere l’approccio extraeuropeo a questo nuovo fenomeno, prima di tutto perché ci consente di potere valutare approcci diversi alla regolamentazione dell’AI che, da noi, ha preso una direzione molto chiara, anche se da molti criticata per l’eccessiva rigidità che rischia di disincentivare le imprese ad operare nel nostro territorio.
Sembra che siano oltre cento gli stati del mondo che stanno per promulgare una loro propria legge sull’intelligenza artificiale. Abbiamo iniziato ad esaminarne alcune che vi proponiamo in questa nuova rubrica che ci farà compagnia nei prossimi mesi.
Come anticipato nel titolo, apriamo quindi questa rubrica iniziando a parlare della regolamentazione che sta per essere adottata in California che prende il nome di
Safe and Secure Innovation for Frontier Artificial Intelligence Models Act
La proposta di legge (SB 1047), che ha avuto un periodo di gestazione di circa un anno, mira a introdurre un quadro normativo complesso e innovativo, progettato per garantire che lo sviluppo e la distribuzione dei modelli di AI avanzata avvengano nel rispetto di rigorosi standard di sicurezza, trasparenza e responsabilità sociale. Con questa iniziativa lo Stato della California si presta ad essere un importante banco di prova nella regolamentazione dell’intelligenza artificiale, rispetto alla reticenza a regolamentare del governo degli Stati Uniti.
La sua entrata in vigore era attesa per il 30 Settembre 2024, ma il giorno precedente il Governatore Gavin Newsom ha posto il veto al disegno di legge, definendolo "ben intenzionato" ma evidenziando che le sue misure troppo stringenti avrebbero potuto ostacolare l'innovazione delle aziende AI emergenti.
In una dichiarazione contenente le motivazioni di tale decisione, il governatore ha sostenuto che:
«While well-intentioned, SB 1047 does not take into account whether an AI system is deployed in high-risk environments, involves critical decision-making or the use of sensitive data (…) Instead, the bill applies stringent standards to even the most basic functions — so long as a large system deploys it. I do not believe this is the best approach to protecting the public from real threats posed by the technology».
Secondo Newsom, la normativa si concentrava eccessivamente sui grandi modelli di AI, senza considerare che anche le piccole startup potrebbero generare rischi significativi, riducendo al contempo la capacità di innovazione a beneficio del bene pubblico.
La decisione ha suscitato reazioni contrastanti. Mentre esponenti della Silicon Valley, come OpenAI e Google esultano, avendo criticato il disegno di legge per i potenziali ostacoli alla crescita del settore, meno felici sono altri leader tecnologici, inclusi Elon Musk e scienziati pionieri dell'AI come Geoffrey Hinton e Yoshua Bengio che lo avevano sostenuto, riconoscendo i rischi potenziali dei modelli AI più potenti.
Con il veto, la legislazione lascia un vuoto normativo, costringendo l'industria AI a continuare ad autoregolamentarsi, una soluzione che, secondo il senatore Scott Wiener, co-autore del disegno di legge, potrebbe non essere sufficiente a garantire la sicurezza pubblica nel lungo termine.
In attesa dei prossimi sviluppi, merita comunque esaminare il contenuto di questa importante proposta di legge.
Obblighi preliminari per gli sviluppatori: sicurezza e trasparenza
Tra le misure previste dal disegno di legge c’è l’obbligo per le aziende che sviluppano sistemi di intelligenza artificiale, di testarli accuratamente e di implementare misure di sicurezza stringenti prima di avviare l’addestramento iniziale di quello che viene definito un “covered model”, ovvero un modello particolarmente avanzato o aventi capacità elevate da potere comportare rischi per la sicurezza pubblica.

Prima dell’inizio dell’addestramento, gli sviluppatori devono quindi predisporre un protocollo di sicurezza e protezione, fondamentale per garantire sicurezza e privacy, che includa lo spegnimento immediato del sistema AI, qualora dovessero verificarsi condizioni di danno potenziale.
Gli sviluppatori saranno obbligati a conservare il protocollo impostato per tutta la durata della disponibilità commerciale o pubblica del modello e per ulteriori cinque anni. Al documento, che dovrà essere aggiornato in modo continuativo, potrà avere un accesso privilegiato il Procuratore Generale, al fine di assicurare la trasparenza e la conformità alle disposizioni normative.
La legge, inoltre, prevede un’esplicita restrizione sull’uso improprio dei modelli AI, qualora comporti un rischio irragionevole di critical harm, ossia un danno significativo.
Audit indipendenti e supervisione statale
Dal 1 Gennaio 2026 gli sviluppatori saranno obbligati a sottoporsi a verifiche annuali condotte da revisori indipendenti che avranno il compito di condurre un audit completo sulla conformità dei modelli AI agli standard di sicurezza e che dovranno redigere un rapporto dettagliato, da conservarsi per tutta il periodo in cui il modello sarà disponibile sul mercato e per ulteriori cinque anni.
Il rapporto di audit, insieme ai protocolli di sicurezza, non sarà pubblicamente divulgato, ai sensi del California Public Records Act, ma sarà accessibile al Procuratore Generale, che potrà accedervi potrà consultarlo per verificare la conformità legale e intervenire in caso di violazioni. Il Procuratore Generale avrà, infatti, la facoltà di intraprendere azioni legali contro gli sviluppatori che non rispettino i requisiti previsti dalla legge, rafforzando così il potere di enforcement statale in materia di sicurezza dell’AI.
Protezione dei lavoratori e trasparenza interna
Il disegno di legge adotta un approccio rigoroso anche in materia di trasparenza interna e prevede specifiche tutele per i whistleblower, garantendo che i dipendenti o collaboratori di aziende sviluppatrici non subiscano ritorsioni per aver segnalato comportamenti non conformi o rischi legati ai modelli di AI. In particolare, chi ha motivo di credere che un modello AI, o il suo derivato, possa causare un danno grave o che l’azienda sviluppatrice non rispetti gli obblighi normativi, potrà rivolgersi al Procuratore Generale o al Labor Commissioner senza temere ritorsioni.
Questa disposizione ha l’obiettivo di incentivare la segnalazione di condotte scorrette o di rischi che potrebbero altrimenti rimanere nascosti, favorendo un clima di maggiore responsabilità interna. Il meccanismo di protezione degli informatori, simile a quello adottato in altre leggi federali e statali, si rivela cruciale in un contesto in cui la tecnologia potrebbe avere conseguenze sistemiche sulla società.
Governance e futuro della regolamentazione: Il Board of Frontier Models
Si prevede l’istituzione di un nuovo organismo di governance, il Board of Frontier Models, che opererà all’interno dell’Agenzia delle Operazioni Governative della California, indipendente dal Dipartimento della Tecnologia. Questo comitato avrà il compito di emettere regolamenti annuali, con decorrenza dal 1 gennaio 2027, per aggiornare la definizione di covered model e assicurare che la legislazione rimanga attuale rispetto all’evoluzione della tecnologia. Il Board dovrà approvare tali regolamenti prima della loro entrata in vigore, garantendo così una supervisione costante e reattiva.
Viene istituito anche un consorzio per lo sviluppo di un’infrastruttura pubblica di cloud computing, denominata CalCompute, finalizzata alla promozione di una AI sicura, etica e sostenibile. Questo progetto mira a facilitare la ricerca e l’innovazione, garantendo che i progressi tecnologici vengano utilizzati a beneficio del pubblico. Il consorzio dovrà sviluppare un quadro di riferimento entro il 2026, che sarà sottoposto al legislatore per ulteriori disposizioni attuative.
Questi i punti salienti della proposta di legge californiana. Nel prossimo numero metteremo in evidenza le criticità e, soprattutto, proporremo un raffronto con l’AI ACT per evidenziarne i punti di convergenza e divergenza.
Grazie per aver letto LISP!
In questa rubrica Non Solo AI ACT analizzeremo e confronteremo i principali approcci che gli Stati stanno adottando per bilanciare i vari interessi in gioco: tutelare i diritti e incentivare l’innovazione. Ringrazio l’Avv. Carlo Callea per il lavoro di ricerca e approfondimento.