#4_I sistemi ad alto rischio nell’AI Act
In questo nuovo articolo analizziamo l'art. 6 dell'AI Act, che presto entrerà in vigore, per capire quali sono i sistemi di intelligenza artificiale considerati ad "alto rischio".
Il Regolamento europeo sull’intelligenza artificiale, la cui approvazione definitiva è avvenuta pochi giorni fa e che presto entrerà in vigore, si occupa principalmente di regolamentare i sistemi di intelligenza ad alto rischio, imponendo una serie di misure e di precauzioni che dovranno essere adottate sia dai fornitori dei sistemi che dagli utilizzatori.
Prima di entrare nel merito di questa corposa normativa, di cui ci occuperemo nei prossimi articoli sull’AI Act, è necessario comprendere quali siano, e come si identificano, i sistemi ad alto rischio.
Le Regole di classificazione per i sistemi di intelligenza artificiale ad alto rischio sono previste dall’art. 6 dell’AI Act che detta una serie di condizioni.
In primo luogo sono considerati ad alto rischio, sia che siano immessi sul mercato in modo indipendente sia che siano commercializzati integrati in altri prodotti, questi sistemi che soddisfano entrambe le seguenti condizioni:
a) Sono utilizzati come componente di sicurezza di un prodotto, o sono essi stessi un prodotto, disciplinato dalla normativa europea;
b) Sono soggetti ad una valutazione di conformità da parte di terzi prima dell’immissione sul mercato, o della messa in servizio, ai sensi della normativa europea.
L’articolo fa riferimento all’Elenco della normativa di armonizzazione dell'Unione prevista nell’Allegato I dell’AI Act che è un elenco piuttosto lungo di norme che regolamentano settori diversi, dalle macchine, agli ascensori, agli impianti a fune, ai dispositivi medici. Occorre quindi prestare particolarmente attenzione alle norme indicate e tenere in considerazione gli eventuali aggiornamenti.
Il secondo comma dell’art. 6 dell’AI Act prevede, poi, che sono ad alto rischio tutti i sistemi elencati nell’Allegato III che sono un numero piuttosto rilevante. Vediamoli in dettaglio.
Sistemi di IA ad alto rischio
I sistemi di IA ad alto rischio a norma dell'articolo 6, paragrafo 2, sono i sistemi di IA elencati in uno dei settori indicati di seguito.
Nell’ambito della biometria:
a) i sistemi di identificazione biometrica remota, tranne il caso in cui sono utilizzati all’unico fine di confermare l’identità di una persona;
b) i sistemi per la categorizzazione biometrica;
c) i sistemi per il riconoscimento delle emozioni.
Nell’ambito delle infrastrutture:
a) i sistemi utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale o nella fornitura di acqua, gas, riscaldamento o elettricità;
Nell’ambito della istruzione e formazione:
a) i sistemi per determinare l'accesso, l'ammissione o l'assegnazione agli istituti di istruzione e formazione professionale;
b) i sistemi per valutare i risultati dell'apprendimento;
c) i sistemi per valutare il livello di istruzione adeguato che una persona riceverà;
d) i sistemi per monitorare e rilevare comportamenti vietati degli studenti durante le prove;
Nell’ambito della gestione del lavoro:
a) i sistemi per l'assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati;
b) i sistemi per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell'ambito di tali rapporti di lavoro.
c) i sistemi, utilizzati dalle amministrazioni pubbliche per valutare l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica essenziali, compresi i servizi di assistenza sanitaria;
d) i sistemi per valutare l'affidabilità creditizia delle persone fisiche;
Nell’ambito dell’accesso ai servizi essenziali:
a) i sistemi per la valutazione dei rischi e la determinazione dei prezzi in relazione a persone fisiche nel caso di assicurazioni sulla vita e assicurazioni sanitarie;
b) i sistemi per valutare e classificare le chiamate di emergenza o per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, compresi polizia, vigili del fuoco e assistenza medica;
Nell’ambito della attività di contrasto, i sistemi utilizzati dalle autorità di contrasto:
a) per determinare il rischio per una persona fisica di diventare vittima di reati;
b) come poligrafi e strumenti analoghi;
c) per valutare l'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati;
d) per determinare il rischio di reato o recidiva in relazione a una persona fisica o per valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso di persone fisiche o gruppi;
e) per effettuare la profilazione delle persone fisiche.
Nell’ambito della migrazione, asilo e gestione del controllo delle frontiere, i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti:
a) come poligrafi e strumenti analoghi;
b) per valutare un rischio (compresi un rischio per la sicurezza, un rischio di migrazione irregolare o un rischio per la salute) posto da una persona fisica che intende entrare o è entrata nel territorio di uno Stato membro;
c) per assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto o di permesso di soggiorno e per i relativi reclami;
d) al fine di individuare, riconoscere o identificare persone fisiche, a eccezione della verifica dei documenti di viaggio.
Nell’amministrazione della giustizia e processi democratici:
a) i sistemi destinati a essere usati da un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie;
b) i sistemi destinati a essere utilizzati per influenzare l'esito di un'elezione o di un referendum o il comportamento di voto.
Nonostante quanto previsto sopra, dal comma 2 dell’art. 6, un sistema non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche.
Questa deroga si verifica quando il sistema esegue un compito limitato, migliora un’attività umana, non sostituisce la valutazione umana, esegue solo un compito preparatorio. Sono però sempre considerati ad alto rischio i sistemi che effettuano profilazione delle persone fisiche.
Quando un’impresa ritiene che il suo sistema non sia ad alto rischio, per una delle ragioni indicate, anche se compare nell’Allegato III, deve effettuare una valutazione del suo sistema a livello tecnico e rivolgersi alle autorità previste nel Regolamento per chiedere l’immissione sul mercato senza sottostare agli adempimenti previsti per quei sistemi.
Una Commissione valuterà la bontà della richiesta e, se del caso, autorizzerà la deroga.
La rubrica LISP_AI Act analizzerà tutti gli aspetti del nuovo Regolamento dando indicazioni pratiche per la sua applicazione da parte delle aziende.
Hai domande su questo nuovo Regolamento?
Il mio libro
È uscito il mio libro “A chi spettano i diritti sulle opere dell’intelligenza artificiale”, edito da Maggioli Editore.
AI Act - Modelli organizzativi e case studies per avvocati e imprese | Corso Online
Posticipato al 19 giugno 2024 il corso online in diretta sull’AI ACT organizzato da Formazione Maggioli che terrò insieme all’avvocato Andrea Sirotti Gaudenzi.
Durante il corso approfondiremo le applicazioni pratiche e illustreremo le singole fasi e attività che gli adeguamenti al Regolamento europeo AI Act richiederanno alle imprese e ai professionisti coinvolti nei processi entro il prossimo biennio.
Io terrò la prima parte del corso sulle misure organizzative e i modelli operativi da mettere in atto per adeguarsi all’AI ACT, dalla Due Diligence al Risk Assessment.
Per il programma completo e per iscriversi, visitare il sito di Formazione Maggioli.