La Commissione Europea ha recentemente pubblicato le Linee Guida per l’attuazione dell’articolo 5 dell’AI Act, stabilendo con maggiore chiarezza le pratiche vietate nell’uso dell’intelligenza artificiale. Tra le restrizioni più rilevanti, emergono i divieti riguardanti i sistemi di categorizzazione biometrica e l’identificazione biometrica remota in tempo reale da parte delle forze dell’ordine.
Categorizzazione biometrica: il pericolo della discriminazione
L’articolo 5, paragrafo 1, lettera (g) dell’AI Act vieta l’uso di sistemi di categorizzazione biometrica per dedurre caratteristiche sensibili degli individui, come razza, orientamento sessuale, opinioni politiche o affiliazione religiosa. L’obiettivo della norma è prevenire discriminazioni e proteggere la privacy dei cittadini, impedendo che dati biometrici vengano utilizzati per profilazioni ingiustificate.
Sono vietati i sistemi AI che analizzano caratteristiche fisiche o comportamentali per assegnare un individuo a una specifica categoria senza consenso esplicito e senza una giustificazione legale. Rientrano nel divieto, ad esempio, le tecnologie che riconoscono la razza o l’etnia delle persone in base a dati biometrici per finalità commerciali o governative.
Alcune eccezioni sono previste per usi ancillari legati a servizi commerciali, come i filtri per la classificazione di caratteristiche facciali nei social network o nei marketplace online. Tuttavia, questi sistemi devono essere strettamente necessari al servizio principale e non possono essere impiegati per scopi di controllo o sorveglianza.
Identificazione biometrica in tempo reale: restrizioni severe per le forze dell’ordine
L’articolo 5, paragrafo 1, lettera (h) dell’AI Act impone limiti stringenti all’uso di sistemi di identificazione biometrica remota in tempo reale in spazi pubblici per scopi di sicurezza. Questi sistemi non possono essere impiegati in modo indiscriminato, ma solo in tre casi specifici:
- Ricerca di vittime di rapimenti o tratta di esseri umani.
- Prevenzione di minacce imminenti alla sicurezza pubblica, come attacchi terroristici.
- Identificazione di individui già accusati o sospettati di gravi reati.
L’utilizzo di queste tecnologie deve essere strettamente circoscritto e soggetto a rigorose valutazioni d’impatto sui diritti umani (FRIA – Fundamental Rights Impact Assessment). Inoltre, l’autorizzazione al loro impiego deve essere concessa da un’autorità giudiziaria o amministrativa indipendente.
Verso un’AI più etica e rispettosa dei diritti fondamentali
Con queste linee guida, la Commissione Europea rafforza il quadro normativo per l’uso dell’intelligenza artificiale, ponendo al centro la tutela dei diritti fondamentali. L’AI Act si configura così come uno strumento essenziale per garantire che le nuove tecnologie non diventino strumenti di discriminazione o sorveglianza di massa, ma vengano utilizzate in modo etico e responsabile.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE
Consiglio dell’Ordine di Milano: gli Ordini forensi non soggetti al Codice dei contratti pubblici
Chiesta una modifica normativa per chiarire l’autonomia degli enti e garantire trasparenza nelle procedure
In caso di sequestro eseguito nell’ufficio di un professionista coinvolto in un reato, non è necessario avvisare il Consiglio dell’Ordine, come previsto dall’art. 103 del…
Avvocati soli: il 64% lavora in studio da sé. Le aggregazioni? Ancora un miraggio
Secondo il Rapporto 2025 Cassa Forense-Censis, la professione forense resta ancorata a modelli tradizionali: solo un legale su dieci lavora in forma associata o societaria.…
