Giustizia predittiva: e se anche le macchine avessero pregiudizi?

Giustizia predittiva: e se anche le macchine avessero pregiudizi?

Tra i 557 progetti che L’Italia sta considerando di inserire nel piano per accedere ai fondi del Recovery Fund molti riguardano la digitalizzazione e alcuni toccano il settore della Giustizia.

La Scrivania Tecnologica Portatile è uno di questi: quasi 2 miliardi per potenziare gli strumenti digitali al fine di migliorare l’efficienza della PA e «consentire alle figure professionali di rispondere alle esigenze dell’utenza anche in situazioni emergenziali».

Tra gli obiettivi della digitalizzazione vi è poi anche l’implementazione della giustizia predittiva per l’Avvocatura dello Stato, per facilitare la scrittura di pareri e memorie a partire da precedenti giuridici.

PRO E CONTRO DELLA GIUSTIZIA PREDITTIVA

Cosa rende la giustizia ‘giusta’? La sua certezza.

Ma l’umana natura è, per sua essenza, fallace. Per questo l’impiego di tecnologie che permettano di analizzare precedenti e dati in maniera più precisa e oggettiva può essere utile nel raggiungere una giustizia più certa e, quindi, ‘giusta’.

Almeno, questa è la teoria. La pratica è, sfortunatamente, più complessa.

La capacità di un computer di prevedere quale possa essere la sentenza più ‘probabile’ si basa su degli algoritmi, operazioni che, a partire dai dati inseriti, compiono determinati passaggi di calcolo fino a offrire un risultato finale.

Il punto è che questi algoritmi sono creati e usati da umani e il risultato che possono offrire dipende sia dai criteri con cui sono stati costruiti sia dai dati inseriti. In sostanza, l’algoritmo non può essere del tutto neutrale perché é creato e usato dall’uomo che, per sua natura, non è mai neutrale.

Dunque, se a seconda dei dati inseriti varia il risultato, la giustizia predittiva non può garantire il principio di uguaglianza che è alla base della certezza, che è, a sua volta, alla base della giustizia ‘giusta’.

Inoltre, l’intelligenza artificiale su cui si basa la giustizia predittiva può sfuggire di mano al suo stesso creatore e un programmatore potrebbe faticare a risalire i passaggi che una tecnologia può aver seguito per giungere al suo risultato o individuarne gli errori.

IL PROBLEMA DELLA DISCRIMINAZIONE ALGORITMICA

Partendo da queste premesse, è facile intuire che anche gli algoritmi possono portare a forme di discriminazione. Un esempio è quanto accaduto con il software inglese Hart, i cui risultati erano frutto di una considerazione diversa degli accusati in base al loro codice di avviamento postale, cosa che ha portato a condanne discriminatorie verso i residenti in zone degradate.

Questo tipo di rischio insito nella giustizia predittiva non sta certo passando inosservato, nemmeno a casa nostra.
Il  Consiglio di Stato spiega che «non può essere messo in discussione che un più elevato livello di digitalizzazione dell’amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini e agli utenti» (sentenza n.881/2020) e rileva che, quando si utilizzano algoritmi per giungere a una decisione, è necessario considerare tre principi fondamentali (sentenza n. 8472/2019):

– il principio di conoscibilità: ognuno ha il diritto di sapere se il processo decisionale a cui è sottoposto è automatizzato e, in tal caso, di conoscere la logica su cui si basa;

il principio di non esclusività della decisione algoritmica: se una decisione automatizzata produce effetti significativi sulla persona, questa ha diritto a che tale decisione non sia basata solo sul processo automatizzato;

il principio della non discriminazione algoritmica: il titolare del trattamento dei dati utilizzati nelle procedure di profilazione deve fare il possibile per garantire che le inesattezze nei dati e gli errori nei risultati siano minimizzati.

In conclusione, la giustizia predittiva sembrerebbe portare i migliori risultati solo se mediata e controllata da una sorta di revisione umana.

[Fonti e approfondimenti: “Recovery fund: i progetti dell’Italia per 5G, AI, cashless, digitale e banda ultralarga“; “Sentenze algoritmiche e principi del diritto. Per un rinnovamento nella continuità“; “Consiglio di Stato: non è da escludere l’adozione di un algoritmo in un procedimento amministrativo“; “Che cambia se è l’algoritmo a valutare i condannati: i test“]

La tecnologia può essere tua amica! Hai bisogno di computer e di strumenti informatici che per svolgere la tua professione in modo veloce, sicuro ed efficiente? Scopri i nostri prodotti.

———

LEGGI ANCHE:

Trojan di Stato, in bilico tra giustizia e diritti fondamentali

Diffamazione sui social: non si può pubblicare tutto ciò che si pensa…

 

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Agid
iso9001
27001
RDP DPO
Microsoft
Cisco
Apple
vmvare
Linux
veeam

ll sito utilizza cookie tecnici, di terze parti e cookie analytics per ottimizzare il sito. Cliccando "OK" accetti l'uso dei cookie. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi