Un nuovo regime di responsabilità per i sistemi AI
L'UE ha varato una prima proposta di Direttiva Europea sulla responsabilità da intelligenza artificiale che dovrebbe agevolare chi pretende un risarcimento danni da sistemi di AI.
Il rischio che i sistemi di intelligenza artificiale possano produrre danni è elevato, come per tutte le tecnologie innovative che possono avere reazioni o effetti imprevisti.
Nel caso dell’AI, però, i problemi legati alla richiesta di un risarcimento danni sono maggiori che in altri casi in quanto l’intelligenza artificiale è in larga parte una “scatola nera” di cui non si conoscono a pieno i meccanismi di funzionamento e pertanto può essere difficile dimostrare che un certo danno è stato prodotto proprio dall’AI e non da altri elementi ad essa esterni.
I principi generali di diritto civile impongono a chi voglia chiedere un risarcimento danni di dimostrare alcuni elementi fondamentali e, in particolare, che ci sia stato un fatto illecito attribuibile ad un determinato soggetto che abbia agito con colpa o dolo e che da questo fatto sia scaturito un danno, collegato al fatto da un nesso di causalità.
Quindi, se qualcuno ritiene che un sistema di intelligenza lo abbia danneggiato, deve dimostrare che il sistema ha posto in essere un comportamento scorretto che è stato causa del danno subìto. Tuttavia, per dimostrare questo assunto, il danneggiato deve necessariamente conoscere come l’intelligenza artificiale ha agito e se c’è stata quanto meno una colpa nell’agente, colpa che, evidentemente, almeno allo stato attuale, non può ricadere sulla macchina ma sul suo produttore.
Questa prova è estremamente difficile proprio per l’impossibilità di entrare nei meccanismi di funzionamento dell’AI e potrebbe paralizzare qualsiasi richiesta risarcitoria.
La direttiva Europea sulla responsabilità da intelligenza artificiale
Su questo tema le istituzioni stanno lavorando da tempo ed hanno varato una prima proposta di Direttiva Europea sulla responsabilità da intelligenza artificiale che dovrebbe agevolare chi pretende un risarcimento danni.
La Direttiva si occupa principalmente delle prove e ha lo scopo di indurre i produttori dei sistemi a fornire quelle informazioni che non sono liberamente disponibili e che, quindi, chi agisce in giudizio non conosce.
L’impianto della normativa muove dal presupposto che sussiste la colpa del fornitore di un sistema di intelligenza artificiale quando il sistema non è conforme ad un obbligo di diligenza previsto da una normativa europea. Non solo, la proposta introduce una presunzione relativa di causalità tra il danno causato e l’input che ha determinato l’output dannoso prodotto dal sistema di AI. Tale presunzione può essere superata solo se il gestore fornisce prova contraria.
Occorre precisare che l’obbligo di diligenza violato non deve essere uno qualsiasi, ma uno finalizzato a impedire il verificarsi del tipo di danno subito da chi richiede il risarcimento dei danni.
Non solo. Per i sistemi ad alto rischio è anche previsto un obbligo, a carico del fornitore del sistema, di divulgazione delle informazioni necessarie al danneggiato per sostenere la sua richiesta. Questa disclosure deve essere autorizzata dal Giudice, previa dimostrazione da parte del danneggiato dell'esistenza di seri indizi di una responsabilità attribuibile al sistema di intelligenza artificiale. Nel caso in cui il fornitore non fornisca le informazioni dovute, saranno ritenuti provati tutti i fatti che si intendeva dimostrare attraverso la produzione dei documenti richiesti.
Questo meccanismo, di presunzione e divulgazione, può agevolare molto le cause di risarcimento, soprattutto in quelle situazioni, che saranno sempre più frequenti, in cui determinate attività sono gestite da più sistemi di intelligenza artificiale che si integrano tra di loro.
Merita osservare che il danno può derivare sia da un certo output, ad esempio errato o in sé dannoso, sia dalla mancanza di un output necessario o dovuto che non è stato fornito dal sistema.
Questa sarebbe solo la prima fase di intervento, soggetta a monitoraggio da parte delle istituzioni, in vista di un ulteriore passaggio che dovrebbe condurre all’introduzione di una responsabilità di tipo oggettivo, ovvero che prescinde dalla colpa del danneggiante. Tale forma di responsabilità potrebbe comprendere ulteriori oneri, tra cui l’introduzione di un’assicurazione obbligatoria per i produttori, distributori o gestori di prodotti e servizi AI al fine di garantire la protezione del danneggiato.
In questo caso, a differenza di quanto è accaduto con l’AI Act, non si è intervenuti con un Regolamento, direttamente applicabile nei singoli Paesi, ma con una Direttiva che lascia agli Stati un certo margine di adeguamento, in base a quelle che sono le esigenze nazionali e le normative interne.
L’obiettivo è sempre quello di promuovere lo sviluppo di sistemi di AI affidabili per guadagnare la fiducia degli utenti e mettere al centro l’essere umano e la sua protezione. Questo si realizza non solo attraverso la mitigazione dei rischi connessi all’implementazione delle tecnologie, ma anche tramite la garanzia di ottenere ristoro in caso di danno.
Conclusioni
La proposta di direttiva rappresenta un primo passo, ma molto importante, per la costituzione di un quadro giuridico europeo uniforme in tema di responsabilità extracontrattuale derivante dalla produzione, dalla diffusione o dalla gestione di sistemi di AI.
Affrontando le difficoltà di attribuzione della colpa e la frammentazione normativa tra gli Stati membri, la direttiva introduce una presunzione relativa di causalità, garantendo una maggiore tutela per i danneggiati senza scoraggiare l'innovazione.
L'approccio di armonizzazione minima consente, al tempo stesso, agli Stati membri di adottare o mantenere norme nazionali più favorevoli all’attore, lasciando però aperto qualche rischio di coordinamento, soprattutto in relazione all’attività degli attori commerciali transfrontalieri.
Grazie, sembra di capire che una normativa unitaria sta piano piano emergendo.
Mi sembra tuttavia di capire che si andrà ad installare il sistema di A.I. in quei paesi che offrono maggiori garanzie alle società e minori tutele ai danneggiati.
Già adesso ci sono tante sentenze che dicono che l'AI non può essere responsabile per i dati sbagliati che gli sono stati forniti, viene il dubbio che questa direttiva non porterà a grandi risultati.