10 Giugno 2025 - Diritto comunitario

Giustizia e Intelligenza Artificiale: l’Europa alza l’asticella della tutela

Quasi un anno dall'entrata in vigore dell’AI Act, il primo regolamento europeo sull’Intelligenza Artificiale: stretta sui sistemi ad alto rischio, in particolare quelli destinati all’ambito giudiziario. Decisioni sempre e solo in mano ai magistrati.

È ufficialmente entrato in vigore il 1° agosto 2024 il Regolamento (UE) 2024/1689, meglio noto come AI Act, il primo quadro normativo europeo interamente dedicato alla regolamentazione dell’Intelligenza Artificiale. Approvato dal Parlamento europeo e dal Consiglio il 13 giugno 2024, questo provvedimento rappresenta una svolta epocale nella gestione delle tecnologie emergenti, con un impatto diretto sui diritti fondamentali, la sicurezza e il rispetto dei valori democratici europei.

Il regolamento si fonda su un approccio “basato sul rischio”, classificando i sistemi di Intelligenza Artificiale in quattro categorie, a seconda del potenziale impatto sulle persone e sulla società: sistemi a rischio inaccettabile (vietati), sistemi ad alto rischio (soggetti a controlli stringenti), sistemi a rischio limitato e sistemi a rischio minimo.
Tra i settori sotto particolare sorveglianza, il regolamento dedica grande attenzione all’ambito giudiziario e ai processi democratici, aree dove l’utilizzo di sistemi automatici richiede tutele supplementari.

IA e giustizia: quando è considerata “ad alto rischio”

L’articolo 6 del regolamento stabilisce che i sistemi di Intelligenza Artificiale impiegati dalle autorità giudiziarie — o per loro conto — per assistere nella ricerca e interpretazione dei fatti, nella comprensione delle norme e nell’applicazione del diritto ai casi concreti devono essere classificati come “ad alto rischio”.
A confermarlo è anche l’Allegato III del regolamento, dove alla voce “Amministrazione della giustizia e processi democratici” si specifica che tali sistemi possono incidere sensibilmente sui diritti delle persone coinvolte e, di conseguenza, richiedono maggiori garanzie di sicurezza, trasparenza e controllo umano.

Il regolamento, tuttavia, precisa che non tutte le applicazioni di IA nel settore giustizia saranno automaticamente considerate pericolose. Il Considerando 40 distingue infatti tra i sistemi utilizzati per compiti amministrativi o organizzativi — come la gestione delle tabelle di assegnazione dei procedimenti o il supporto alla redazione automatizzata di documenti — e quelli destinati a incidere sul merito decisionale dei singoli casi. Solo questi ultimi saranno sottoposti alle regole più restrittive.

Sorveglianza umana e responsabilità finale

Uno dei principi cardine dell’AI Act riguarda il mantenimento della “guida umana” nei processi decisionali giudiziari. Anche laddove si faccia ricorso a strumenti di IA per attività di supporto, la decisione finale deve restare di competenza esclusiva del magistrato o dell’autorità giudiziaria.
A ribadire questo concetto è l’articolo 14, dedicato alla “sorveglianza umana”, che impone di garantire che il controllo sull’operato del sistema e la responsabilità ultima rimangano sempre affidati a una persona fisica.

Obblighi per i sistemi ad alto rischio

Per i sistemi classificati come “ad alto rischio” il regolamento prevede una serie di obblighi particolarmente stringenti. Tra questi:

  • Un sistema di gestione della qualità, che assicuri la conformità ai requisiti di sicurezza, accuratezza e robustezza definiti dall’AI Act.

  • Documentazione tecnica completa, che illustri in dettaglio il funzionamento del sistema, le logiche sottostanti e il processo di sviluppo.

  • Registrazione degli eventi di utilizzo, come log-in, log-out e altre operazioni rilevanti.

  • Requisiti di cybersicurezza, a garanzia dell’affidabilità del sistema e della protezione dei dati trattati.

Inoltre, prima dell’immissione sul mercato, i sistemi ad alto rischio dovranno essere sottoposti a una valutazione d’impatto sui diritti fondamentali (FRIA), prevista dall’articolo 27. Questo documento dovrà contenere informazioni dettagliate sull’utilizzo previsto del sistema, i tempi e le modalità d’impiego, le categorie di persone coinvolte, i rischi connessi e le misure di mitigazione adottate.

Uno strumento di supporto, non un sostituto

Il regolamento europeo conferma così una linea netta: l’Intelligenza Artificiale potrà rappresentare un prezioso strumento di supporto per il lavoro dei magistrati, facilitando la ricerca di precedenti giurisprudenziali, la gestione dei procedimenti o la redazione di atti. Tuttavia, l’essenza stessa della funzione giurisdizionale — il giudizio, l’interpretazione e la valutazione dei fatti — dovrà sempre restare nelle mani dei giudici.


LEGGI ANCHE

Irlanda: obbligo di indicare i rischi per la salute sulle etichette degli alcolici

Stephen Donnelly, ministro della Salute irlandese, ha firmato una legge che rende obbligatorio indicare sulle etichette degli alcolici varie informazioni sulle calorie, sulla salute, sul…

bonus edili 2022

Superbonus e tutti i bonus edilizi 2023

Superbonus, bonus facciate e altri bonus edilizi del documento programmatico di bilancio La prossima manovra conterrà la proroga al 2023 del Superbonus, ma con alcune…

Il futuro del lavoro è già qui: entro il 2030 il 60% dei lavoratori dovrà reinventarsi

Secondo il World Economic Forum, l’intelligenza artificiale non sostituirà solo alcune mansioni, ma ridefinirà l’intero sistema di competenze. La sfida? Unire abilità digitali e soft…

TORNA ALLE NOTIZIE

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto