10 Giugno 2025 - Diritto comunitario

Giustizia e Intelligenza Artificiale: l’Europa alza l’asticella della tutela

Quasi un anno dall'entrata in vigore dell’AI Act, il primo regolamento europeo sull’Intelligenza Artificiale: stretta sui sistemi ad alto rischio, in particolare quelli destinati all’ambito giudiziario. Decisioni sempre e solo in mano ai magistrati.

È ufficialmente entrato in vigore il 1° agosto 2024 il Regolamento (UE) 2024/1689, meglio noto come AI Act, il primo quadro normativo europeo interamente dedicato alla regolamentazione dell’Intelligenza Artificiale. Approvato dal Parlamento europeo e dal Consiglio il 13 giugno 2024, questo provvedimento rappresenta una svolta epocale nella gestione delle tecnologie emergenti, con un impatto diretto sui diritti fondamentali, la sicurezza e il rispetto dei valori democratici europei.

Il regolamento si fonda su un approccio “basato sul rischio”, classificando i sistemi di Intelligenza Artificiale in quattro categorie, a seconda del potenziale impatto sulle persone e sulla società: sistemi a rischio inaccettabile (vietati), sistemi ad alto rischio (soggetti a controlli stringenti), sistemi a rischio limitato e sistemi a rischio minimo.
Tra i settori sotto particolare sorveglianza, il regolamento dedica grande attenzione all’ambito giudiziario e ai processi democratici, aree dove l’utilizzo di sistemi automatici richiede tutele supplementari.

IA e giustizia: quando è considerata “ad alto rischio”

L’articolo 6 del regolamento stabilisce che i sistemi di Intelligenza Artificiale impiegati dalle autorità giudiziarie — o per loro conto — per assistere nella ricerca e interpretazione dei fatti, nella comprensione delle norme e nell’applicazione del diritto ai casi concreti devono essere classificati come “ad alto rischio”.
A confermarlo è anche l’Allegato III del regolamento, dove alla voce “Amministrazione della giustizia e processi democratici” si specifica che tali sistemi possono incidere sensibilmente sui diritti delle persone coinvolte e, di conseguenza, richiedono maggiori garanzie di sicurezza, trasparenza e controllo umano.

Il regolamento, tuttavia, precisa che non tutte le applicazioni di IA nel settore giustizia saranno automaticamente considerate pericolose. Il Considerando 40 distingue infatti tra i sistemi utilizzati per compiti amministrativi o organizzativi — come la gestione delle tabelle di assegnazione dei procedimenti o il supporto alla redazione automatizzata di documenti — e quelli destinati a incidere sul merito decisionale dei singoli casi. Solo questi ultimi saranno sottoposti alle regole più restrittive.

Sorveglianza umana e responsabilità finale

Uno dei principi cardine dell’AI Act riguarda il mantenimento della “guida umana” nei processi decisionali giudiziari. Anche laddove si faccia ricorso a strumenti di IA per attività di supporto, la decisione finale deve restare di competenza esclusiva del magistrato o dell’autorità giudiziaria.
A ribadire questo concetto è l’articolo 14, dedicato alla “sorveglianza umana”, che impone di garantire che il controllo sull’operato del sistema e la responsabilità ultima rimangano sempre affidati a una persona fisica.

Obblighi per i sistemi ad alto rischio

Per i sistemi classificati come “ad alto rischio” il regolamento prevede una serie di obblighi particolarmente stringenti. Tra questi:

  • Un sistema di gestione della qualità, che assicuri la conformità ai requisiti di sicurezza, accuratezza e robustezza definiti dall’AI Act.

  • Documentazione tecnica completa, che illustri in dettaglio il funzionamento del sistema, le logiche sottostanti e il processo di sviluppo.

  • Registrazione degli eventi di utilizzo, come log-in, log-out e altre operazioni rilevanti.

  • Requisiti di cybersicurezza, a garanzia dell’affidabilità del sistema e della protezione dei dati trattati.

Inoltre, prima dell’immissione sul mercato, i sistemi ad alto rischio dovranno essere sottoposti a una valutazione d’impatto sui diritti fondamentali (FRIA), prevista dall’articolo 27. Questo documento dovrà contenere informazioni dettagliate sull’utilizzo previsto del sistema, i tempi e le modalità d’impiego, le categorie di persone coinvolte, i rischi connessi e le misure di mitigazione adottate.

Uno strumento di supporto, non un sostituto

Il regolamento europeo conferma così una linea netta: l’Intelligenza Artificiale potrà rappresentare un prezioso strumento di supporto per il lavoro dei magistrati, facilitando la ricerca di precedenti giurisprudenziali, la gestione dei procedimenti o la redazione di atti. Tuttavia, l’essenza stessa della funzione giurisdizionale — il giudizio, l’interpretazione e la valutazione dei fatti — dovrà sempre restare nelle mani dei giudici.


LEGGI ANCHE

Processo telematico, AIGA: Imprescindibile il “doppio binario” anche per gli avvocati per il deposito degli atti

Quello che gli operatori del diritto auspicano più di tutto è la piena funzionalità del processo telematico – afferma il Presidente - altrimenti vi è…

chatbot legali

Dl cybersicurezza: al via l’esame in Parlamento

Il Sottosegretario alla Presidenza del Consiglio, Alfredo Mantovano, interverrà domani, mercoledì 13 marzo, alle 13.30, nel corso della seduta delle Commissioni riunite I (Affari costituzionali,…

Il ministro Nordio all’Aja per bilaterale con l’omologo olandese

È il primo incontro fra i due ministri dopo l’insediamento del nuovo governo neerlandese.

TORNA ALLE NOTIZIE

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto