Come gli Stati regolamentano l’AI al di fuori dell’Europa: la Cina
La Regolamentazione dell’Intelligenza Artificiale in Cina: una strategia che riflette una visione di “pragmatismo autoritario”.
Negli ultimi anni, la regolamentazione dell’intelligenza artificiale (AI) è diventata una priorità globale. Cina ed Europa, due grandi potenze economiche e tecnologiche, stanno adottando approcci distinti nel disciplinare lo sviluppo e l’uso dell’AI, riflettendo differenze normative, culturali e strategiche.
Il 13 luglio 2023 ha segnato una svolta nella regolamentazione tecnologica cinese con l’emanazione delle “Misure Provvisorie per l’Amministrazione dei Servizi di Intelligenza Artificiale Generativa” (di seguito “Misure”).
Promosse dall’Ufficio Nazionale per l’Informazione su Internet e altre istituzioni governative, queste norme sono entrate in vigore il 15 agosto 2023, delineando per la prima volta un quadro normativo dettagliato per i contenuti generati dall’intelligenza artificiale (AIGC).
Le Misure rappresentano il primo tentativo concreto della Cina di bilanciare l’innovazione tecnologica con la protezione della sicurezza nazionale e la stabilità sociale, consolidando il suo approccio regolatorio.
Vediamo le norme più significative.
Ai sensi dell’art. 2, le Misure si applicano ai servizi che utilizzano tecnologie di intelligenza artificiale generativa per produrre contenuti come testi, immagini, audio e video, destinati al pubblico cinese. Tuttavia, esistono due importanti limitazioni:
applicazione ai servizi destinati al pubblico. Le Misure regolano esclusivamente i fornitori che immettono i loro prodotti sul mercato. Pertanto, le aziende che utilizzano tecnologie di AI generativa internamente, senza offrire servizi al pubblico cinese, sono esentate;
apertura all’innovazione. La normativa adotta un atteggiamento inclusivo verso la ricerca e lo sviluppo tecnologico, lasciando ampio spazio alle istituzioni accademiche, culturali e private per progredire nel campo senza vincoli eccessivi.
Questa impostazione dimostra l’approccio cinese di incentivare lo sviluppo tecnologico pur mantenendo un rigido controllo sui servizi pubblici, strategia che riflette una visione di “pragmatismo autoritario”.
L’art. 7 delle Misure impone stringenti requisiti durante la fase di progettazione e addestramento dei modelli AI imponendo l’utilizzo di dataset autentici, accurati, rappresentativi della diversità culturale e sociale della Cina e che i dati siano acquisiti in maniera legittima e nel rispetto dei diritti di proprietà intellettuale.
I fornitori sono tenuti ad obblighi e controlli stringenti, tra cui gli “accordi di servizio”, al fine di chiarire i diritti e i doveri degli utenti e delle piattaforme, prevenendo abusi o usi impropri delle tecnologie (art. 9), “Valutazioni di sicurezza” (art. 17), per i servizi con potenziale impatto sulla società e ad “etichettare” chiaramente i contenuti generati dall’AI.
Inoltre, gli sviluppatori devono garantire che i contenuti generati dall’AI non promuovano discriminazioni o instabilità sociale.
Un sistema nazionale per la verifica e la sicurezza dei modelli di AI
Nel contesto normativo, inoltre, la Cina ha recentemente introdotto un sistema nazionale per la verifica e la sicurezza dei modelli di AI, supportato da organizzazioni di valutazione terze. Questo sistema, unico nel suo genere, mira a rafforzare la fiducia nei servizi, promuovendo trasparenza e conformità con le normative. Sebbene i dettagli operativi del sistema siano ancora in fase di definizione, questa iniziativa evidenzia l’intenzione del governo cinese di stabilire standard globali nella regolamentazione dell’AI. Tuttavia, rimangono dubbi sulla capacità di queste misure di affrontare in modo efficace i rischi associati, soprattutto in relazione alla protezione dei diritti umani e alla mitigazione dei pregiudizi algoritmici.
La politica cinese
Le autorità cinesi hanno adottato un approccio progressivo ma mirato, bilanciando incentivi all’innovazione e controllo normativo. L’obiettivo è quello di creare un ecosistema in cui la tecnologia possa crescere senza minacciare la stabilità politica. Nonostante l’apparente rigidità, la regolamentazione cinese lascia spazio alla sperimentazione, pur mantenendo un focus su questioni come la trasparenza, l’attribuzione di responsabilità e la protezione dei consumatori. Tuttavia, alcuni osservatori evidenziano che, nel contesto cinese, il controllo normativo è strettamente legato alla governance politica. La Global AI Governance Initiative, annunciata nel 2023 dal Presidente Xi Jinping, mira a promuovere un sistema globale di governance dell’AI che rifletta i valori e gli interessi cinesi. Questo approccio differisce da altre giurisdizioni, che pongono maggiore enfasi su diritti umani e trasparenza democratica.
Liberalizzazione e restrizione: un equilibrio delicato
Durante l’ultima riunione parlamentare annuale, il presidente Xi Jinping ha evidenziato il ruolo cruciale dell’AI come una delle “nuove forze produttive di qualità” per contrastare il rallentamento economico. Questo sottolinea l’allineamento tra gli interessi del governo e delle aziende tecnologiche nel promuovere l’AI come motore di crescita economica e innovazione.
Tuttavia, l’approccio cinese non è privo di contraddizioni.
Da un lato, si promuove un rapido sviluppo tecnologico; dall’altro, si mantiene un rigoroso controllo sui contenuti politicamente sensibili. Questo duplice atteggiamento si riflette nella regolamentazione sull’AI, che enfatizza la censura e la conformità ai valori socialisti, ma offre pochi strumenti concreti per prevenire danni ai diritti umani.
Innovazione tecnologica e leadership: il caso ERNIE Bot
Tra gli esempi più significativi di innovazione cinese nel settore vi è ERNIE Bot, sviluppato dal gigante tecnologico Baidu.
Questo chatbot, basato sul modello linguistico avanzato “Ernie 4.0”, rappresenta un passo avanti nelle capacità di comprensione e generazione del linguaggio naturale, avvicinandosi al livello umano. Presentato nell’ottobre 2023, ERNIE Bot è stato progettato per operare in scenari diversificati, tra cui la creazione letteraria, la scrittura commerciale, il calcolo matematico e la generazione multimodale.
La sua evoluzione dimostra come la Cina stia cercando di posizionarsi non solo come un hub per l’innovazione tecnologica ma anche come leader globale nello sviluppo di AI applicata.
Le sfide per l’Occidente e il confronto con l’UE
Il modello regolamentare cinese pone una sfida significativa per l’Occidente. L’Unione Europea ha adottato un approccio basato sul rischio, distinguendo tra sistemi ad alto, moderato e basso rischio.
L’obiettivo dell’AI Act è garantire la protezione dei diritti fondamentali e della sicurezza, imponendo requisiti specifici per ogni categoria di rischio e richiedendo audit di conformità per le applicazioni AI più pericolose. La Cina, invece, si concentra sul controllo politico e sulla stabilità sociale.
Questo diverso focus riflette le priorità dei due sistemi: mentre l’UE privilegia la protezione dei diritti individuali, la Cina considera l’AI uno strumento per consolidare il potere statale.
L’approccio cinese alla regolamentazione dell’AI è un esempio emblematico di come le tecnologie emergenti possano essere integrate in un quadro normativo che bilancia innovazione e controllo. Sebbene le misure introdotte finora abbiano promosso la crescita del settore, il loro successo a lungo termine dipenderà dalla capacità di affrontare in modo efficace le sfide etiche e normative, garantendo al contempo la competitività della Cina nel mercato globale.
Per l’Occidente, comprendere e rispondere a questa strategia rappresenta una sfida cruciale, soprattutto alla luce delle implicazioni geopolitiche della competizione tecnologica tra Cina e Stati Uniti.
Grazie per aver letto LISP!
In questa rubrica Non Solo AI ACT analizzeremo e confronteremo i principali approcci che gli Stati stanno adottando per bilanciare i vari interessi in gioco: tutelare i diritti e incentivare l’innovazione.