Linee Guida dell’AI ACT: sistemi inclusi nella definizione di AI (1/2)
Perché un sistema AI rientri nella definizione dell'AI ACT, deve comprendere sette elementi molto importanti.
Buongiorno a tutti,
prima di lasciarvi all’articolo di questa settimana, vi segnalo che nella nuova puntata di Revolution ho parlato con del ruolo dell’Unione Europea nella partita globale per l’intelligenza artificiale.
L’episodio si ascolta qui:
E adesso parliamo di AI ACT e delle Linee Guida, emanate il 6 Febbraio scorso, che offrono un primo orientamento importante sulla definizione di sistemi di intelligenza artificiale.
Il Regolamento Europeo 2024/1689 (AI ACT) non definisce cosa sia l’intelligenza artificiale, ma i sistemi e i modelli di intelligenza artificiale.
In particolare l’art. 3(1) dell’AI ACT dice che un sistema AI è:
«un sistema automatizzato (machine-based system) progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali».
Il 6 Febbraio 2025 è stata emanata una prima bozza delle Linee Guida che dovranno chiarire come questo articolo debba essere interpretato, che offre già importanti spunti di riflessione.
I sette elementi di un sistema AI
Perché un sistema AI rientri nella definizione, deve comprendere i seguenti sette elementi:
essere un sistema basato su macchine;
essere progettato per operare con livelli variabili di autonomia;
mostrare capacità di adattamento dopo il deployment; e
per obiettivi espliciti o impliciti
dedurre, dagli input ricevuti, come generare output,
come previsioni, contenuti, raccomandazioni o decisioni,
che possono influenzare ambienti fisici o virtuali.
Si tratta di una definizione che si basa sul ciclo di vita del sistema, suddiviso in due fasi principali:
la fase di pre-deployment o di costruzione del sistema; e
la fase di post-deployment o di utilizzo del sistema.
I sette elementi possono essere presenti in entrambe le fasi o trovarsi nell’una ma non nell’altra, in quanto i sistemi AI sono molto diversi tra loro e la definizione ha cercato di includerne al suo interno il maggior numero possibile.
Cosa significa sistema basato su macchine
Il termine "basato su macchine" si riferisce al fatto che i sistemi di intelligenza artificiale sono sviluppati e operano attraverso componenti hardware e software, necessari durante tutto il ciclo di vista, dalla fase di addestramento dei modelli, alla modellazione predittiva, al processo decisionale, all’elaborazione dei dati. Questa espressione significa, però, anche che un sistema AI è guidato in modo computazionale ed è basato su operazioni meccanizzate, per cui comprende una vasta gamma di sistemi.
Secondo le Linee Guida rientrano in questa definizione, anche i sistemi di calcolo quantistico, che sono considerati sistemi basati su macchine, nonostante utilizzino la fisica quantistica, così come i sistemi biologici o organici, purché forniscano capacità computazionali.
Il termine autonomia
Il termine “autonomia” deve essere letto insieme al considerando 12) dell’AI ACT per il quale con detto termine si intente che i sistemi di intelligenza artificiale sono progettati per operare con un certo grado di indipendenza rispetto all’intervento umano e con la capacità di funzionare senza coinvolgimento diretto dell’uomo. L’autonomia è strettamente connessa alla c.d. inferenza, ovvero alla capacità di un sistema di elaborare dati e generare output, sotto forma di previsioni, contenuti o altro, senza che ci sia bisogno di un completo controllo umano. Questo non significa che l’intervento umano debba essere del tutto assente, tant’è che la norma precisa che deve trattarsi di “un certo grado” di autonomia, ma certamente non deve essere indispensabile.
I sistemi che per necessitano di funzioni manuali per funzionare, non possono essere considerati sistemi di intelligenza artificiale, mentre sistemi che non agiscono in completa autonomia lo sono comunque.
Rientrano quindi nella definizione, sia un sistema che richiede input manuali per generare un output, sia un sistema che può generare output in autonomia senza l’intervento da parte dell’utente. Il livello di autonomia è quindi una condizione essenziale per determinare se un sistema possa essere classificato come sistema AI, ma è sufficiente che sia dotato di un ragionevole grado di indipendenza nelle azioni anche se per alcune operazioni prevede l’intervento dell’uomo. Ovviamente, più alto sarà il grado di autonomia, maggiori saranno le misure di sicurezza e di mitigazione del rischio che dovranno essere adottate per potere sviluppare e distribuire il prodotto.
Capacità di adattamento per obiettivi specifici
La “adattabilità”, in base al considerando 12), è la capacità di un sistema di “autoapprendere” e modificare il suo comportamento in fase d’uso, per cui può ogni volta produrre risultati diversi. Questo requisito non è indispensabile perché un sistema sia considerato un sistema AI (la norma usa il verbo “può”).
Gli “obiettivi” sono classificati come espliciti, se indicati direttamente dallo sviluppatore, o impliciti se si deducono dal comportamento del sistema, dall’interazione con l’ambiente esterno o se derivano dai dati di addestramento.
Gli obiettivi sono i compiti che un sistema deve svolgere, i risultati che deve offrire e devono essere distinti dal termine scopo, che è l’uso per il quale il sistema è stato progettato dal suo fornitore.
Ad esempio lo scopo di un sistema può essere quello di migliorare il flusso di lavoro in un’azienda, fornendo un risponditore automatico sulle procedure interne, mentre gli obiettivi del sistema sono fornire risposte pertinenti.
Quindi lo scopo non dipende solo dal funzionamento interno per raggiungere gli obiettivi ma anche da fattori esterni, come il flusso di lavoro, i dati e le istruzioni fornite dagli utenti.
La capacità di inferenza
Il quinto elemento è la capacità di dedurre dagli input per generare output, ovvero l’inferenza.
La capacità di inferenza è un requisito essenziale dei sistemi AI e il Considerando 12) chiarisce che non possono essere considerati sistemi di intelligenza artificiale i software tradizionali o i metodi di programmazione «basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico».
Sempre il Considerando 12) afferma che l’inferenza include sia il «processo di ottenimento degli output, quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare gli ambienti fisici e virtuali», sia «la capacità dei sistemi di IA di ricavare modelli o algoritmi, o entrambi, da input o dati».
In modo più generico, la norma ISO/IEC 22989, definisce l'inferenza come un ragionamento attraverso il quale si derivano conclusioni a partire da premesse note, precisando che una premessa può essere un fatto, una regola, un modello, una caratteristica o dati grezzi.
L’inferenza per ottenere un output riguarda la fase di uso, mentre l’inferenza per ottenere modelli o algoritmi a partire dai dati riguarda la fase di sviluppo del modello.
Dato che l’articolo 3(1) dell’AI ACT usa l’espressione «derivare (inferire)…. come generare output», secondo le Linee Guida questa norma deve essere riferita alla fase di costruzione, in cui un sistema utilizza tecniche di AI per abilitare il processo di inferenza, e quindi deve essere letta in un’accezione più ampia rispetto alla semplice capacità di un sistema di derivare output a partire da input noti.
Il Considerando 12) aggiunge anche le tecniche AI, evidenziando che il concetto di inferenza comprende sia la fase di costruzione del sistema, sia le tecniche che consentono a un sistema di inferire come generare output.
Vi si legge:
«le tecniche che consentono l'inferenza nella costruzione di un sistema di IA comprendono approcci di apprendimento automatico (machine learning) che imparano dai dati come conseguire determinati obiettivi e approcci basati sulla logica e sulla conoscenza che traggono inferenze dalla conoscenza codificata o dalla rappresentazione simbolica del compito da risolvere».
Le tecniche AI vengono distinte in due diversi tipi:
quelle basate sul machine learning, che apprendono dai dati per raggiungere determinati obiettivi;
quelle basate sulla logica e sulla conoscenza, che partono da regole e rappresentazioni simboliche.
Il machine learning, a sua volta, comprende varie tecniche di apprendimento (supervisionato, non supervisionato, auto-supervisionato, per rinforzo) ed include il deep learning, che utilizza le reti neurali ed è alla base di modelli di riconoscimento del linguaggio naturale.
Gli approcci basati sulla logica, si fondano su conoscenze codificate da esperti umani, regole, fatti e relazioni logiche, come i modelli di elaborazione del linguaggio naturale (NLP) basati sulla grammatica e sulla logica semantica o i sistemi esperti per la diagnosi medica, sviluppati con regole fornite da medici. Sono comunque tutte forme di inferenza.
Le quattro categorie di output
La norma prevede che dall’inferenza possano essere generate quattro categorie di output, previsioni, contenuti, raccomandazioni o decisioni, che differiscono per il livello di coinvolgimento umano e che sono rilevanti per stabilire la funzionalità di un sistema e il suo impatto sui diritti fondamentali.
Le previsioni vengono gestite dalla macchina, senza bisogno di un intervento umano, se non minimo e, a differenza di altri sistemi noti, i sistemi AI generano previsioni utilizzando sistemi di machine learning capaci di individuare pattern complessi nei dati. Sebbene i software per generare previsioni esistano da decenni, i sistemi di IA che utilizzano il machine learning sono in grado di scoprire pattern complessi nei dati e di fornire previsioni più accurate, anche in ambienti altamente dinamici e sono in grado di adattarsi a situazione impreviste. Così i veicoli autonomi generano previsioni in tempo reale, valutando la posizione di altri veicoli o ostacoli per adattare la guida, i sistemi che prevedono il consumo energetico esaminano dati di consumo e condizioni meteo variabili, per essere più precisi.
I contenuti possono essere di diverso tipo, ad esempio testi, immagini, video, musica e tecnicamente sono la conseguenza di un susseguirsi di previsioni e decisioni.
Le raccomandazioni sono suggerimenti che vengono forniti a un utente sulla base dei suoi comportamenti o gusti e sono generate anche da sistemi tradizionali. I sistemi AI che generano raccomandazioni effettuano però analisi su più ampia scala e si adattano in tempo reale ai diversi comportamenti dell’utente, non utilizzando solo dati storici, ma integrandoli e tenendo in considerazione una serie di fattori dinamici. Se il sistema prevede che le raccomandazioni vengano eseguite in modo automatico, la raccomandazione si trasforma in una decisione automatizzata.
Le decisioni sono, infatti, scelte effettuate direttamente dal sistema di AI. In questo caso il sistema automatizza i processi decisionali umani, intervenendo direttamente senza l’ausilio dell’utente, come accade nel caso di un sistema antifrode che blocca automaticamente una transazione sospetta o nei sistemi di regolazione del traffico che comandano i semafori. In sostanza, i sistemi AI di questo tipo, a differenza dei sistemi tradizionali, hanno la capacità di generare output gestendo relazioni complesse tra i dati, utilizzando modelli appresi in fase di addestramento regole preimpostate, elaborando le informazioni in modo avanzato.
L’elemento dell’influenza
Il settimo, e ultimo, elemento utile per stabilire se un sistema AI rientri nella definizione dell’AI ACT è l’influenza che può avere sull’ambiente esterno, perché un sistema di questo tipo non è mai passivo.
La norma prevede che il sistema possa influenzare ambienti fisici o virtuali, per evidenziare che un sistema AI può impattare sia su oggetti fisici e materiali, che su flussi di dati, software perché rientri nella definizione.
Questi sette elementi devono essere tenuti in considerazione nell’analisi dei sistemi di intelligenza artificiale che si intendono sviluppare o utilizzare ma, come è evidente, il margine di interpretazione resta piuttosto ampio.
Le Linee Guida segnano un primo orientamento, ma saranno necessari molti mesi di applicazione concreta per potere iniziare a disporre di parametri più definiti ed esempi concreti.
Nel prossimo articolo analizzeremo i sistemi esclusi dalla definizione di AI.
Discussioni di altissimo livello, fondamentali per contenere l'infinita potenza della tecnica.