Lo scorso 21 aprile 2021 la Commissione Europea ha presentato una proposta di Regolamento per gestire i rischi connessi all’utilizzo dell’intelligenza artificiale.
Le istituzioni europee son consapevoli delle opportunità insite nell’intelligenza artificiale, e ne sostengono l’utilizzo, ma sono ben consce anche delle trappole che può riservare. Ne consegue l’esigenza di regolamentare l’attività e responsabilizzare i fornitori di tali servizi.
È infatti necessario proteggere i cittadini europei da rischi che riguardano la sicurezza, la salute e altri diritti fondamentali, come la privacy.
La Proposta della Commissione si rivolge ai fornitori dei sistemi di AI non solo in UE, ma anche al di fuori dell’Unione.
INTELLIGENZA ARTIFICIALE E I LIVELLI DI RISCHIO
La proposta della Commissione non riguarda tutte le forme di Intelligenza Artificiale, ma solo quelle che mostrano una certa soglia di rischio.
Nella Proposta stessa sono indicati diversi livelli di rischio:
• Rischio inaccettabile: ricade sugli strumenti AI che possono influenzare i comportamenti dei cittadini. Per esempio, i sistemi di social scoring che monitorano e valutano la reputazione sociale degli individui.
• Rischio alto: riguarda i sistemi di AI che minacciano la sicurezza o i diritti fondamentali degli individui, per esempio i dispositivi medici connessi tramite IoT.
• Rischio limitato: riguarda le applicazioni di intelligenza artificiale che garantiscono all’utente di interagire consapevolmente con lo strumento (es.: chatbot) .
• Rischio minimo: questo tipo di applicazione dell’intelligenza artificiale non comporta rischi che richiedano una limitazione, tant’è che sono escluse dalla Proposta (es.: filtri antispam o videogame).
INTELLIGENZA ARTIFICIALE E GIUSTIZIA
Al considerando (40) il Regolamento recita:
“Alcuni sistemi di IA destinati all’amministrazione della giustizia e dei processi democratici devono essere classificati come ad alto rischio, considerando il loro impatto potenzialmente significativo su democrazia, Stato di diritto, libertà individuali e diritto a un ricorso effettivo e ad un giusto processo. In particolare, per affrontare i rischi di potenziali pregiudizi, errori e opacità, è opportuno qualificare come sistemi di IA ad alto rischio quelli destinati all’assistenza nella autorità giudiziaria nella ricerca e interpretazione dei fatti e della legge e nell’applicazione della legge ad un insieme concreto di fatti” .
Lo stesso considerando esclude dalla classe ad alto rischio quei sistemi di intelligenza artificiale destinati ad “attività amministrative puramente accessorie che non incidono sull’effettiva amministrazione della giustizia in casi individuali, come l’anonimizzazione o pseudonimizzazione di decisioni giudiziarie, documenti o dati, comunicazione tra personale, compiti amministrativi o allocazione di risorse”.
RICONOSCIMENTO BIOMETRICO DA REMOTO
Tema particolarmente interessante è il riconoscimento biometrico da remoto in tempo reale da parte delle forze dell’ordine, che ricade infatti tra le applicazioni ad alto rischio.
Il riconoscimento biometrico può avvenire tramite analisi, per esempio, dell’iride, della voce o del volto.
La Proposta della Commissione regolamenta con attenzione questa applicazione dell’intelligenza artificiale dati i rischi legati sia al benessere dell’individuo che al trattamento di categorie sensibili di dati personali.
Il riconoscimento biometrico è però ammesso in tre casi, legati a questioni di sicurezza generale:
• ricercare potenziali vittime di crimini, per esempio i bambini scomparsi;
• prevenire minacce imminenti alla vita delle persone, per esempio attacchi terroristici;
• localizzare, identificare e agire verso un sospettato o un autore di un reato tra inseriti nella lista indicata dalla decisione quadro 2002/584/GAI sul mandato d’arresto europeo e sulle procedure di consegna tra Stati membri.
Nonostante si tratti di eccezioni, anche in questi casi il riconoscimento biometrico da remoto in tempo reale è sottoposto a dei limiti di utilizzo che saranno decisi dagli stati membri. Per usufruirne sarà necessario un provvedimento del giudice o di una autorità indipendente di pubblica sicurezza.
Approfondimenti: Camera dei Deputati – Il nuovo approccio europeo all’Intelligenza Artificiale
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Rendi il tuo studio legale più sicuro e tecnologico con i prodotti Servicematica.
——–
LEGGI ANCHE:
Evasione fiscale e tecnologia: il progetto dell’Agenzia delle Entrate