La Commissione Europea ha recentemente pubblicato le Linee Guida per l’attuazione dell’articolo 5 dell’AI Act, stabilendo con maggiore chiarezza le pratiche vietate nell’uso dell’intelligenza artificiale. Tra le restrizioni più rilevanti, emergono i divieti riguardanti i sistemi di categorizzazione biometrica e l’identificazione biometrica remota in tempo reale da parte delle forze dell’ordine.
Categorizzazione biometrica: il pericolo della discriminazione
L’articolo 5, paragrafo 1, lettera (g) dell’AI Act vieta l’uso di sistemi di categorizzazione biometrica per dedurre caratteristiche sensibili degli individui, come razza, orientamento sessuale, opinioni politiche o affiliazione religiosa. L’obiettivo della norma è prevenire discriminazioni e proteggere la privacy dei cittadini, impedendo che dati biometrici vengano utilizzati per profilazioni ingiustificate.
Sono vietati i sistemi AI che analizzano caratteristiche fisiche o comportamentali per assegnare un individuo a una specifica categoria senza consenso esplicito e senza una giustificazione legale. Rientrano nel divieto, ad esempio, le tecnologie che riconoscono la razza o l’etnia delle persone in base a dati biometrici per finalità commerciali o governative.
Alcune eccezioni sono previste per usi ancillari legati a servizi commerciali, come i filtri per la classificazione di caratteristiche facciali nei social network o nei marketplace online. Tuttavia, questi sistemi devono essere strettamente necessari al servizio principale e non possono essere impiegati per scopi di controllo o sorveglianza.
Identificazione biometrica in tempo reale: restrizioni severe per le forze dell’ordine
L’articolo 5, paragrafo 1, lettera (h) dell’AI Act impone limiti stringenti all’uso di sistemi di identificazione biometrica remota in tempo reale in spazi pubblici per scopi di sicurezza. Questi sistemi non possono essere impiegati in modo indiscriminato, ma solo in tre casi specifici:
- Ricerca di vittime di rapimenti o tratta di esseri umani.
- Prevenzione di minacce imminenti alla sicurezza pubblica, come attacchi terroristici.
- Identificazione di individui già accusati o sospettati di gravi reati.
L’utilizzo di queste tecnologie deve essere strettamente circoscritto e soggetto a rigorose valutazioni d’impatto sui diritti umani (FRIA – Fundamental Rights Impact Assessment). Inoltre, l’autorizzazione al loro impiego deve essere concessa da un’autorità giudiziaria o amministrativa indipendente.
Verso un’AI più etica e rispettosa dei diritti fondamentali
Con queste linee guida, la Commissione Europea rafforza il quadro normativo per l’uso dell’intelligenza artificiale, ponendo al centro la tutela dei diritti fondamentali. L’AI Act si configura così come uno strumento essenziale per garantire che le nuove tecnologie non diventino strumenti di discriminazione o sorveglianza di massa, ma vengano utilizzate in modo etico e responsabile.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

Cassa Forense, contributo minimo integrativo: rinvio della riscossione a dicembre
Cassa Forense ha deliberato di differire alla data del 31 dicembre 2023 la riscossione del contributo minimo integrativo nella misura di 805 euro. Resta fermo,…

Due maxi multe ad Amazon: ha violato la privacy degli utenti
Amazon ha violato la privacy degli utenti per quanto riguarda la gestione dei dispositivi di sorveglianza Ring e dell’altoparlante Alexa. Dopo attente indagini, l’azienda è…

Infortuni mortali sul lavoro: il CdA risponde penalmente per la sicurezza
La sentenza n. 40682 del 6 novembre 2024 ha stabilito che le deleghe non esonerano i vertici dalla responsabilità per incidenti causati da mancanze strutturali…