10 Giugno 2025 - Diritto comunitario

Giustizia e Intelligenza Artificiale: l’Europa alza l’asticella della tutela

Quasi un anno dall'entrata in vigore dell’AI Act, il primo regolamento europeo sull’Intelligenza Artificiale: stretta sui sistemi ad alto rischio, in particolare quelli destinati all’ambito giudiziario. Decisioni sempre e solo in mano ai magistrati.

È ufficialmente entrato in vigore il 1° agosto 2024 il Regolamento (UE) 2024/1689, meglio noto come AI Act, il primo quadro normativo europeo interamente dedicato alla regolamentazione dell’Intelligenza Artificiale. Approvato dal Parlamento europeo e dal Consiglio il 13 giugno 2024, questo provvedimento rappresenta una svolta epocale nella gestione delle tecnologie emergenti, con un impatto diretto sui diritti fondamentali, la sicurezza e il rispetto dei valori democratici europei.

Il regolamento si fonda su un approccio “basato sul rischio”, classificando i sistemi di Intelligenza Artificiale in quattro categorie, a seconda del potenziale impatto sulle persone e sulla società: sistemi a rischio inaccettabile (vietati), sistemi ad alto rischio (soggetti a controlli stringenti), sistemi a rischio limitato e sistemi a rischio minimo.
Tra i settori sotto particolare sorveglianza, il regolamento dedica grande attenzione all’ambito giudiziario e ai processi democratici, aree dove l’utilizzo di sistemi automatici richiede tutele supplementari.

IA e giustizia: quando è considerata “ad alto rischio”

L’articolo 6 del regolamento stabilisce che i sistemi di Intelligenza Artificiale impiegati dalle autorità giudiziarie — o per loro conto — per assistere nella ricerca e interpretazione dei fatti, nella comprensione delle norme e nell’applicazione del diritto ai casi concreti devono essere classificati come “ad alto rischio”.
A confermarlo è anche l’Allegato III del regolamento, dove alla voce “Amministrazione della giustizia e processi democratici” si specifica che tali sistemi possono incidere sensibilmente sui diritti delle persone coinvolte e, di conseguenza, richiedono maggiori garanzie di sicurezza, trasparenza e controllo umano.

Il regolamento, tuttavia, precisa che non tutte le applicazioni di IA nel settore giustizia saranno automaticamente considerate pericolose. Il Considerando 40 distingue infatti tra i sistemi utilizzati per compiti amministrativi o organizzativi — come la gestione delle tabelle di assegnazione dei procedimenti o il supporto alla redazione automatizzata di documenti — e quelli destinati a incidere sul merito decisionale dei singoli casi. Solo questi ultimi saranno sottoposti alle regole più restrittive.

Sorveglianza umana e responsabilità finale

Uno dei principi cardine dell’AI Act riguarda il mantenimento della “guida umana” nei processi decisionali giudiziari. Anche laddove si faccia ricorso a strumenti di IA per attività di supporto, la decisione finale deve restare di competenza esclusiva del magistrato o dell’autorità giudiziaria.
A ribadire questo concetto è l’articolo 14, dedicato alla “sorveglianza umana”, che impone di garantire che il controllo sull’operato del sistema e la responsabilità ultima rimangano sempre affidati a una persona fisica.

Obblighi per i sistemi ad alto rischio

Per i sistemi classificati come “ad alto rischio” il regolamento prevede una serie di obblighi particolarmente stringenti. Tra questi:

  • Un sistema di gestione della qualità, che assicuri la conformità ai requisiti di sicurezza, accuratezza e robustezza definiti dall’AI Act.

  • Documentazione tecnica completa, che illustri in dettaglio il funzionamento del sistema, le logiche sottostanti e il processo di sviluppo.

  • Registrazione degli eventi di utilizzo, come log-in, log-out e altre operazioni rilevanti.

  • Requisiti di cybersicurezza, a garanzia dell’affidabilità del sistema e della protezione dei dati trattati.

Inoltre, prima dell’immissione sul mercato, i sistemi ad alto rischio dovranno essere sottoposti a una valutazione d’impatto sui diritti fondamentali (FRIA), prevista dall’articolo 27. Questo documento dovrà contenere informazioni dettagliate sull’utilizzo previsto del sistema, i tempi e le modalità d’impiego, le categorie di persone coinvolte, i rischi connessi e le misure di mitigazione adottate.

Uno strumento di supporto, non un sostituto

Il regolamento europeo conferma così una linea netta: l’Intelligenza Artificiale potrà rappresentare un prezioso strumento di supporto per il lavoro dei magistrati, facilitando la ricerca di precedenti giurisprudenziali, la gestione dei procedimenti o la redazione di atti. Tuttavia, l’essenza stessa della funzione giurisdizionale — il giudizio, l’interpretazione e la valutazione dei fatti — dovrà sempre restare nelle mani dei giudici.


LEGGI ANCHE

Trasporti pubblici: arriva il bonus dipendenti

Contributo per i dipendenti degli studi professionali che utilizzano trasporti pubblici In arrivo un contributo per i dipendenti degli studi professionali che utilizzano i trasporti pubblici. Il…

Flick: un’avvocatura protagonista delle transizioni in corso

Il Presidente emerito della Corte costituzionale a Roma: "La giustizia deve essere inclusiva e sostenibile."

Caso Almasri: avviso di garanzia a Meloni e ai ministri, la premier: “Non sono ricattabile”

Indagine sul rimpatrio del criminale libico: il governo sotto accusa, ma la maggioranza fa quadrato. Anm: "Atto dovuto, nessuna condanna preventiva"

TORNA ALLE NOTIZIE

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto