#3_AI ACT: le pratiche vietate
L'AI ACT, di cui stiamo attendendo l’approvazione finale, introduce il divieto di sviluppare sistemi di intelligenza artificiale che operino in determinati settori critici. Vediamo quali.
Il Regolamento europeo sull’intelligenza artificiale, di cui stiamo attendendo l’approvazione finale, introduce al suo interno il divieto di sviluppare sistemi di intelligenza artificiale che operino in determinati settori considerati critici.
La scelta di escludere queste applicazioni è esclusivamente politica, come quella di scegliere di non regolamentare le applicazioni di intelligenza artificiale relative al settore bellico. Ho scritto sul tema un articolo su Appunti di Stefano Feltri a cui rinvio per approfondimenti.
AI ACT: cosa non si può assolutamente fare
L’articolo 5 dell’AI Act prevede che sono vietate una serie di “pratiche” di intelligenza artificiale che riportiamo qui di seguito e che classifichiamo in base agli effetti.
Un primo gruppo di pratiche vietate sono quelle che tendono a manipolare le persone o a sfruttarne le vulnerabilità.
Sono quindi vietate:
«a) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l'effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la sua capacità di prendere una decisione informata, inducendo pertanto una persona a prendere una decisione che non avrebbe altrimenti preso, in un modo che provochi o possa provocare a tale persona, a un'altra persona o a un gruppo di persone un danno significativo;
b) l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di una persona o di uno specifico gruppo di persone, dovute all'età, alla disabilità o a una specifica situazione sociale o economica, con l'obiettivo o l'effetto di distorcere materialmente il comportamento di tale persona o di una persona che appartiene a tale gruppo in un modo che provochi o possa ragionevolmente provocare a tale persona o a un'altra persona un danno significativo;».
Un secondo gruppo di pratiche vietate sono quelle che incidono sulla valutazione e classificazione della persone sulla base del loro comportamento o delle loro caratteristiche, al fine di tenere un certo comportamento nei loro confronti, che prevedano la possibilità di commettere un reato, che effettuano il riconoscimento facciale, che inferiscano le emozioni di una persona nell’ambito lavorativo o scolastico, che utilizzino sistemi biometrici per classificare individualmente le persone e trarne deduzioni in merito alla “razza”, alle opinioni politiche, religiose, filosofiche o sulla vita sessuale.
Sono quindi vietate:
«c) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA ai fini della valutazione o della classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari:
i) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;
ii) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;
d) l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere la probabilità che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un'attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un'attività criminosa;
e) l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
f) l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di IA per inferire le emozioni di una persona fisica nell'ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l'uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza;
g) l'immissione sul mercato, la messa in servizio per tale finalità specifica o l'uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale; tale divieto non riguarda l'etichettatura o il filtraggio di set di dati biometrici acquisiti legalmente, come le immagini, sulla base di dati biometrici o della categorizzazione di dati biometrici nel settore delle attività di contrasto;».
Sono inoltre vietati i sistemi di identificazione biometrica in tempo reale in luoghi accessibili al pubblico per “attività di contrasto” che sono consentiti sono in una serie di casi limitati:
«h) l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico a fini di attività̀ di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi:
i) la ricerca mirata di specifiche vittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani, nonché́ la ricerca di persone scomparse;
ii) la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità̀ fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;
iii) la localizzazione o l'identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un'indagine penale, dell'esercizio di un'azione penale o dell'esecuzione di una sanzione penale per i reati di cui all'allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni;».
L’identificazione biometrica è regolamentata nell’AI Act sono quando è finalizzato all’attività di contrasto alla commissione di reati, mentre in tutti gli altri casi valgono le norme stringenti previste dall’art. 9 del GDPR (Reg. UE 2016/679) sul rispetto della privacy.
Come si legge nei Considerando dell’AI Act, l’intelligenza artificiale può essere utilizzata per realizzare nuovi e potenti strumenti di manipolazione, sfruttamento e controllo sociale, che devono essere vietati per la loro pericolosità.
La ragione del divieto assoluto di queste pratiche consiste proprio nell’alto rischio di disuguaglianza e sull’impatto sociale che esse possono avere.
In questo stesso senso si stanno muovendo anche altre proposte di regolamentazione dell’intelligenza artificiale in discussione in altre parti del mondo.
La rubrica LISP_AI Act analizzerà tutti gli aspetti del nuovo Regolamento, dando indicazioni pratiche per la sua applicazione da parte delle aziende.
Hai domande su questo nuovo Regolamento?
In teoria quindi i sistemi di valutazione delle risorse umane (ad esempio i software delle agenzie del lavoro) non potranno usare questi dati ma mi sembra di capire che in pratica riusciranno a farlo semplicemente chiedendo all'interessato di indicarli nel curriculum e di firmare la privacy.