Intelligenza artificiale: non è l’Europa a dettare le regole
Come osserva Luciano Floridi, l’Effetto Bruxelles non sembra funzionare per il digitale. Sull’intelligenza artificiale questa profezia potrebbe avverarsi più che in altri settori.
Il famoso inciso “America innovates, China replicates, Europe regulates” può essere letto in modi diversi, ma da noi viene spesso interpretato positivamente, come la capacità dell’Europa di regolamentare, prima di altri, settori di avanguardia, grazie alla cultura giuridica occidentale e alla bravura dei legislatori.
Negli anni si è spesso esaltato il così detto “Effetto Bruxelles”, ovvero la circostanza che le leggi europee facciano da apripista ad altre normative di oltreoceano che vengono varate successivamente prendendo le prime come modello.
Effetto Bruxelles nell’AI
Come ha spiegato Luciano Floridi in un video diffuso in rete, l’Effetto Bruxelles non sembra funzionare per il digitale.
Se una normativa sulla produzione di macchine, apparecchiature e hardware varata in Europa può in effetti trascinare il mercato, in quanto le imprese che devono adeguare la loro produzione alle stringenti regole europee, non modificano i loro prodotti per altri mercati e li vendono ovunque con gli adeguamenti richiesti dall’Europa, la situazione è diversa per il software.
Cambiare una catena di montaggio è molto più complicato e costoso che intervenire su righe di codice e anche a livello distributivo è molto più facile compartimentare i mercati.
Quindi, nel digitale, l’Effetto Bruxelles rischia di agire in modo inverso e, anziché trascinare l’economia, allontanare l’innovazione del nostro continente.
Sull’intelligenza artificiale questa profezia potrebbe avverarsi più che in altri settori.
L’AI Act, il complesso Regolamento Europeo sull’Intelligenza Artificiale, entrato in vigore lo scorso Agosto, non pare rappresentare un modello ispiratore di altre normative. Anzi, gli stati che avanzano proposte di legge stanno seguendo strade diverse, con obiettivi e strumenti che non lo prendono a modello.
Un esempio è il recente accordo tra l’Artificial Intelligence Institute degli Stati Uniti, parte del NIST, il National Institute of Standards and Technology, e OpenAI e Anthropic, per una collaborazione finalizzata all’immissione sul mercato di sistemi di intelligenza artificiale sicuri e affidabili.
L’accordo non prevede regole rigide da rispettare, non vengono dettati parametri o condizioni, ma la possibilità per i membri dell’Istituto di potere esaminare e valutare le tecnologie, prima che vengano immesse sul mercato, insieme alle aziende, in modo da evidenziare le possibili criticità e trovare, insieme, le soluzioni da adottare. Si tratta di una sorta di valutazione ex ante, che ha il vantaggio di consentire alle istituzioni di conoscere i modelli e prevenire la diffusione di sistemi considerati dannosi per la sicurezza nazionale. Per le imprese la procedura può essere vantaggiosa, in quanto evitano il rischio che possano essere avanzate contestazioni successive e riducono anche la possibilità di subire azioni legali, ma la contropartita è la massima trasparenza sui loro sistemi, cosa che non sembra piacere a Google e Meta che, al momento, non hanno preso parte all’accordo.
EU vs USA: due approcci a confronto
L’approccio è quindi opposto a quello europeo.
L’AI Act prevede che le aziende dimostrino che i loro sistemi rispettano i valori fondamentali dell’uomo, attraverso una valutazione di impatto davvero anomala e unica nel suo genere visto l’oggetto di riferimento che è l’etica. Il rischio tenuto come parametro di riferimento è la violazione di questi valori. Il Regolamento Europeo obbliga, quindi, le aziende a dotarsi di un apparato di consulenti tecnici, ma soprattutto legali, che sia in grado di impostare una struttura organizzativa e di predisporre una copiosa documentazione da esibire in fase di controllo. Non c’è una fase di collaborazione tra istituzioni e privati e il confronto tra queste due realtà avviene solo sul piano delle verifiche e delle sanzioni.
L’approccio statunitense non tiene minimamente in considerazione l’etica, concetto tra l’altro difficile da declinare, ma si concentra esclusivamente sulla sicurezza e sulla fiducia dei sistemi. Da questo punto di vista, la posizione americana sembra molto più efficace, in quanto trattandosi di una nuova tecnologia, di cui si sa poco e niente, è difficile potere impostare criteri di adeguamento, mentre è molto più utile conoscerla, esplorarla e solo dopo determinare quali siano gli interventi da porre in essere.
L’Europa ha tentato di applicare all’intelligenza artificiale regole dettate per la sicurezza di altri prodotti industriali, ma è stato uno sforzo titanico, e forse non del tutto riuscito, proprio per il fatto che l’intelligenza artificiale è una tecnologia del tutto diversa e non trasparente. Si è messo al centro l’uomo, ma questa affermazione di principio si coniuga male a livello pratico, anche perché in settori estremamente critici, come le armi comandate dall’intelligenza artificiale, l’AI Act non interviene affatto, lasciando che siano gli Stati ad occuparsene.
La proposta di legge sull’AI della California
Negli Stati Uniti non c’è solo l’accordo di AI Safety Institute con OpenAI e Anthropic a fare parlare di sé, ma anche la proposta di legge sull’intelligenza artificiale della California che prevede l’obbligo per le imprese di garantire che i sistemi AI non consentano attacchi alle strutture pubbliche e che non agevolino la costruzione di armi chimiche, biologiche o nucleari. Si prevede anche l’introduzione di garanzie per i dipendenti che diffondono notizie sulla pericolosità di questi sistemi, una sorta di whistleblowing, muovendo dal presupposto che solo chi lavora sui sistemi di intelligenza artificiale può conoscerli davvero a fondo.
La proposta sta suscitando perplessità e il dibattito è in atto, ma l’intenzione è chiara, fare in modo che i sistemi immessi sul mercato siano sicuri e per ottenere questo risultato si parte dal basso, dalle aziende e da chi ci lavora, non dall’alto, imponendo regole difficili da prevedere per una tecnologia che è nelle mani di pochi privati.
Se l’Europa vuole difendere i propri valori, di cui si fa giustamente paladina, deve imparare ad adottare strumenti e metodi più adeguati ai tempi.
Il vecchio “regulates”, inteso come imposizione di norme e adempimenti, sembra scricchiolare e urta di fronte a un modo che, per necessità, deve essere sempre più collaborativo e meno impositivo e coercitivo.
mi pare molto sensato, ma come fare ? Laura forza sei tutti noi !
Non credo che l'Unione Europea abbia il permesso di legiferare sulle armi e sui sistemi di difesa, verrebbe immediatamente stroncata dalle corti costituzionali dei paesi europei, mi sbaglio?