Come gli Stati regolamentano l’AI al di fuori dell’Europa: il Regno Unito e l’AI Bill
L'Artificial Intelligence (Regulation) Bill (HL Bill 11) del Regno Unito mira a stabilire un quadro normativo per l’intelligenza artificiale con un approccio light-touch, molto diverso dall'AI ACT.
Il Regno Unito, con l’introduzione dell’Artificial Intelligence (Regulation) Bill (HL Bill 11), si prepara a stabilire un quadro normativo per l’intelligenza artificiale (AI), cercando un equilibrio tra promozione dell’innovazione e tutela dei diritti e della sicurezza.
Questo disegno di legge, presentato il 22 novembre 2023 è attualmente in fase di discussione presso la Camera dei Lord e rappresenta un tentativo di definire le responsabilità e i limiti per l’uso di questa tecnologia nel contesto pubblico e privato.
Principi Fondamentali della Regolamentazione
Uno dei punti centrali della proposta di legge è l’introduzione di un insieme di principi regolatori che dovranno guidare lo sviluppo, l’uso e l’applicazione dell’AI, garantendo sicurezza, robustezza, appropriata trasparenza, equità, responsabilità e contestabilità. In particolare, la regolamentazione britannica mira a garantire che ogni sistema di AI sviluppato o implementato nel Regno Unito sia trasparente e sicuro, nonché privo di pregiudizi, soprattutto verso gruppi socialmente svantaggiati o vulnerabili.
La proposta richiede inoltre che le aziende testino accuratamente i loro sistemi di AI e si conformino alle leggi esistenti in materia di protezione dei dati, privacy e proprietà intellettuale. Il principio di “proporzionalità” gioca un ruolo cruciale, imponendo che ogni obbligo regolatorio sia commisurato ai rischi e ai benefici che la tecnologia porta con sé.
L’AI Authority e i Regulatory Sandboxes
La proposta è strutturata in nove articoli e prevede, al primo di essi, che la Segreteria di Stato istituisca, mediante regolamento, un’autorità nazionale in materia di intelligenza artificiale (c.d. “AI Authority”), i cui poteri vengono delineati all’articolo 1, comma 2. Questa autorità avrà il compito di vigilare sull’applicazione delle norme e potrà disporre di ampi poteri regolatori, inclusa la facoltà di sciogliersi o ridefinire il proprio mandato tramite consultazioni pubbliche.
Un altro strumento previsto dalla legge è quello dei regulatory sandboxes, ovvero ambienti sperimentali nei quali le aziende potranno testare nuove tecnologie di AI in modo sicuro, con il supporto delle autorità regolatorie. Questi sandbox favoriscono la collaborazione tra imprese e autorità, permettendo di testare innovazioni in un contesto di mercato reale, ma con un margine di rischio ridotto grazie alla supervisione regolatoria.
Ruolo dell’AI Officer e Gestione dei Dati
Il progetto di legge introduce anche la figura dell’AI Officer, che ogni azienda dovrà designare per monitorare l’uso sicuro e non discriminatorio dell’AI. L’AI Officer sarà responsabile della conformità ai principi etici e dovrà assicurare che i dati utilizzati nei sistemi di AI siano privi di pregiudizi. Questo rappresenta un passo importante per garantire la responsabilità interna delle aziende nello sviluppo e utilizzo dell’AI, promuovendo al contempo la trasparenza e la sicurezza nell’uso di tali tecnologie.
Dal punto di vista della gestione dei dati, il disegno di legge prevede che le aziende che utilizzano dati di terze parti per l’addestramento dei loro sistemi dichiarino l’origine di tali dati e ottengano il consenso informato dei soggetti interessati. Questa disposizione garantisce il rispetto delle normative sulla proprietà intellettuale e la protezione dei dati, elementi cruciali per un utilizzo etico dell’AI.
AI Bill del Regno Unito e AI ACT Europeo a confronto
Mentre l’AI Act dell’Unione Europea adotta un approccio basato sul rischio, classificando i sistemi di AI in base alla loro potenziale pericolosità, la regolamentazione britannica segue un modello più flessibile.
L’obiettivo è quello di creare un ambiente regolatorio che incoraggi l’innovazione, mantenendo al contempo un quadro giuridico che tuteli i diritti fondamentali e garantisca la protezione dei consumatori.
Questa differenza di approccio riflette una visione strategica del Regno Unito, che mira a posizionarsi come un hub globale per lo sviluppo dell’AI. Pur mantenendo standard elevati di sicurezza e trasparenza, la normativa britannica punta a evitare regolamentazioni eccessivamente rigorose che potrebbero ostacolare la crescita del settore. Tuttavia, alcuni esperti temono che questo approccio light-touch possa non essere sufficiente per affrontare le sfide etiche e sociali poste dall’AI.
Ecco una tabella di confronto.
Conclusione
Il disegno di legge Artificial Intelligence (Regulation) Bill rappresenta un’importante tappa nel percorso di regolamentazione dell’AI nel Regno Unito. Pur distinguendosi per un approccio più flessibile rispetto all’Unione Europea, il Regno Unito sta cercando di bilanciare l’esigenza di innovazione con la necessità di garantire sicurezza, equità e trasparenza. L’introduzione di strumenti innovativi come i regulatory sandboxes e la figura dell’AI Officer dimostra la volontà del legislatore britannico di creare un ambiente favorevole allo sviluppo tecnologico, senza sacrificare i diritti fondamentali.
Ad oggi le sorti dell’Artificial Intelligence (Regulation) Bill (HL Bill 11) sono dubbie, in quanto il nuovo governo laburista sembra riluttante all’approccio laissez-faire del precedente governo conservatore, che era considerato pro-innovazione. Non è quindi escluso che possa essere emanato un nuovo disegno di legge con una diversa impostazione.
Grazie per aver letto LISP!
Nella rubrica Non Solo AI ACT analizzeremo e confronteremo i principali approcci che gli Stati stanno adottando per bilanciare i vari interessi in gioco: tutelare i diritti e incentivare l’innovazione.