10 Febbraio 2020

Giustizia predittiva

Giustizia predittiva e il confine tra sicurezza e privacy

Prima di parlare di Giustizia Predittiva vogliamo condividere con voi la definizione di Intelligenza Artificiale data dalla Commissione Europea.
L’AI comprende quei «sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi. I sistemi basati sull’AI possono consistere solo in software che agiscono nel mondo virtuale (ad esempio, assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), oppure incorporare l’AI in dispositivi hardware (ad esempio, in robot avanzati, auto a guida autonoma, droni o applicazioni dell’Internet delle Cose)».

Con Giustizia Predittiva possiamo intendere l’uso di tecnologie e, anche, di Intelligenza Artificiale per calcolare la probabilità di un esito giudiziario o per giungere a un provvedimento.

Collegata alla Giustizia Predittiva, è la Polizia Predittiva, ovvero l’insieme di attività, metodi e strumenti che consentono di predire chi può commettere un reato, dove e quando, al fine di prevenire il reato stesso.

Per riuscirci è necessario raccogliere ed elaborare una grande mole di dati statistici, compito possibile solo appoggiandosi a tecnologie che ne sono in grado.
Questi dati spaziano da statistiche vere e proprie ad analisi delle peculiarità dei luoghi o delle condizioni atmosferiche, fino alle caratteristiche dei potenziali criminali: età, etnia, condizioni economiche, precedenti, inclinazione alle recidive e persino tratti somatici.

L’uso dellIntelligenza Artificiale nella giustizia sta diventando, quindi, sempre più massiccio e apre scenari tanto interessanti quanto inquietanti: potrebbero le autorità decidere di abbandonare la strada della prevenzione dei fattori criminogeni (sociali, ambientali, individuali, economici, etc) per affidarsiai soli algoritmi?
Ma, soprattutto, se da un lato le nuove tecnologie permetteranno più sicurezza, più velocità, meno errori, dall’altro, quali sono le implicazioni per le libertà e la privacy degli individui?

È proprio questo ultimo punto quello più difficile da gestire.

Un tentativo di mediazione tra sicurezza e libertà è la Carta Etica Europea emessa dalla Cepej, European Commission for the Efficiency of Justice, che si occupa di monitorare l’efficienza della giustizia all’interno dei paesi membri del Consiglio d’Europa.

Nella Carta sono elencati i 5 principi di riferimento che i soggetti pubblici e privati responsabili dello sviluppo di strumenti e servizi di intelligenza artificiali applicabili alla giustizia dovrebbero seguire:

  • il rispetto dei diritti fondamentali 
  • la non discriminazione
  • qualità e sicurezza 
  • trasparenza, imparzialità ed equità 
  • il concetto di “sotto il controllo dell’utente”, ovvero garantire che l’utente possa agire in modo informato e sia in controllo delle sue scelte.

INTELLIGENZA ARTIFICIALE E GIUSTIZIA NEL MONDO

In Estonia la risoluzione delle controversie minori (fino a 7 mila euro di valore) è stata affidata a giudici robot per velocizzare lo smaltimento degli arretrati. Lo stato ambisce ad automatizzare altre 50 attività pubbliche entro il 2020.

Nel frattempo, negli Stati Uniti l’intelligenza artificiale ha già trovato applicazione in materia di giustizia predittiva penale con l’utilizzo di un algoritmo, chiamato Compas, che permette di valutare il rischio di recidiva di un imputato partendo dalle risposte date a un questionario composto da domande su vita sociale, lavorativa, istruzione, opinioni personali, uso di stupefacenti, precedenti penali, ecc.
Le Corti utilizzano l’algoritmo per quantificare le pene, ma il sistema è stato contestato perché considerato discriminatorio.

RICONOSCIMENTO FACCIALE E GIUSTIZIA PREDITTIVA

Una delle tecnologie più controverse applicate alla giustizia è quella del riconoscimento facciale.

Grazie all’analisi e alla comparazione dei tratti fisionomici, il riconoscimento facciale consente di identificare in modo univoco un individuo anche a distanza e senza dover interagire con esso.
Sebbene sia meno costoso di altre tecnologie biometriche, ha dei limiti: funziona solo se il volto è sufficientemente illuminato e a fuoco, mentre le espressioni facciali possono compromettere il risultato.
Con l’uso del 3D e del riconoscimenti termico questi limiti possono essere superati.

USO DEL RICONOSCIMENTO FACCIALE NEL MONDO

Hong Kong

Tutti abbiamo visto al TG le proteste per la democrazia durante il 2019.
Quello che forse molti di noi non sanno è che una delle preoccupazioni principali della popolazione è la minaccia alla libertà portata avanti dai sistemi di sorveglianza.
Tali sistemi si basano spesso sul riconoscimento facciale, portato avanti grazie a lampioni intelligenti che, con le loro videocamere, permettono alle autorità di controllare i cittadini, con l’intento poi di trasferire le informazioni alla Cina

Cina

Grazie alla mancanza di tutele della privacy, la Cina si presenta come il paese perfetto per testare nuove tecnologie di sorveglianza.
Un caso emblematico è la provincia dello Xinjiang, territorio abitato da popolazioni musulmane e, pertanto, soggetta a politiche di omologazione e a un forte controllo.
A questo, va aggiunto che le aziende cinesi impegnate nello sviluppo di software per il riconoscimento facciale sono in forte crescita, pronte a vendere i propri sistemi anche all’estero (con quali garanzie di sicurezza per i cittadini di questi paesi, non si sa).

Stati Uniti

Secondo il rapporto di “Fight for the Future” le forze dell’ordine fanno uso di software per la raccolta di innumerevoli foto di cittadini, spesso a loro insaputa o senza il loro consenso.
A Baltimora la polizia ha utilizzato il riconoscimento facciale per identificare (e fermare) alcuni protestanti. In molti aeroporti è già in uso il riconoscimento facciale per controllare i passeggeri dei voli internazionali. Software simili sono usati tramite body cam (fotocamere agganciate alle divise) alla frontiera con il Messico, dove la pressione migratoria si fa sentire.

Europa

È notizia di pochi giorni fa che l’Unione Europea sta considerando di bandire il riconoscimento facciale nei luoghi pubblici per 5 anni, finché non saranno istituite regole più efficaci nel gestire la tutela della privacy.

Nel frattempo, la Francia sta per avviare un programma di identificazione basato sul riconoscimento facciale per, a detta del governo, fornire ai cittadini un’identità digitale sicura.
Il sistema si basa su una app che permetterà di accedere a determinati servizi. Il problema è che non vi è alternativa: chi non passa per il riconoscimento facciale non potrà utilizzarli.

Nel Regno Unito il riconoscimento facciale è un dato di fatto in moltissimi luoghi pubblici, come centri commerciali e musei.

E IN ITALIA?

L’uso dell’Intelligenza Artificiale e di tecnologie innovative applicate alla Giustizia è ancora agli albori nel nostro paese e si concentra soprattutto sulla creazione di database di provvedimenti per facilitare l’individuazione di orientamenti e casistiche.

Andrea Cioffi, sottosegretario al Ministero per lo Sviluppo Economico, è anche il coordinatore del gruppo di esperti nato per redigere le linee guida di una strategia nazionale per l’Intelligenza Artificiale.
A proposito della giustizia predittiva, Cioffi ha dichiarato in un’intervista a
Altalex che  «Non sono maturi i tempi, a mio avviso. Ci sono ancora questioni tecnologiche da affrontare: l’esperienza (ndr: si riferisce a Compas) ci ha già insegnato che ci sono gravi ricadute sul principio di uguaglianza. Per fortuna, il sistema italiano è di civil law. Certo, l’AI potrebbe essere utile a sburocratizzare la giustizia, ma è centrale il trattamento del dato giudiziario. Il dato giudiziario deve essere indicizzato e chi lo fornisce dovrebbe seguire standard condivisi e finalizzati»

Trovare un’equilibrio tra sicurezza e privacy, tra tecnologie e diritti, rimarrà dunque una questione aperta ancora per molto tempo.


Non servono grandi investimenti in tecnologia per migliorare il lavoro nel tuo studio! Scopri la nostra offerta

———-

LEGGI ANCHE:

Intelligenza artificiale e il confine (sempre più sottile) tra giustizia e privacy

Dal PCT all’Intelligenza Artificiale: sfide e opportunità

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto