È finalmente arrivato il testo definitivo dell’AI Act, la prima legge al mondo che affronta il tema dell’intelligenza artificiale. Il testo è composto da 85 articoli e da 9 allegati, e sarà effettivo senza che gli Stati membri lo recepiscano.
L’Ai Act è stato organizzato in una struttura di rischi, suddivisi in minimi, limitati, alti, inaccettabili. Escluse dal regolamento le tecnologie utilizzate per scopi di ricerca e militari.
Leggi anche: AI Act: la prima legge che regolamenta le intelligenze artificiali
Gli utilizzi vietati sono quelli relativi ai sistemi che utilizzano le tecnologie subliminali finalizzati:
- alla manipolazione dei comportamenti di una singola persona;
- all’abuso di soggetti fragili e vulnerabili;
- alla categorizzazione biometrica riferita a dati sensibili;
- allo scraping (pesca a strascico) online di volti;
- al riconoscimento delle emozioni a scuola o sul posto di lavoro;
- al social scoring;
- alla polizia predittiva.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Il paragrafo d riguarda l’utilizzo di sistemi di riconoscimento biometrico e facciale in tempo reale. L’applicazione è assolutamente proibita, poiché conduce «a risultati marcati da pregiudizi» e provoca «effetti discriminatori», escludendo tre situazioni particolari nelle quali «è necessario raggiungere un sostanziale pubblico interesse, la cui importanza supera i rischi».
I casi in questione sono:
- ricerca di vittime e persone scomparse;
- minacce certe alla sicurezza o alla vita delle persone/attacco terroristico;
- identificazione e localizzazione di presunti autori di determinati reati (presenti nell’allegato IIa).
Tuttavia, in questi casi le forze di polizia dovranno avere prima l’ok di un ente indipendente o di un giudice. Viene garantita anche una procedura d’urgenza, previa richiesta d’autorizzazione entro le 24 ore precedenti.
Leggi anche: Ai Act: nuove sfide per gli avvocati
Per quanto riguarda i sistemi vietati troviamo quelli ad alto rischio, ovvero quelli che espongono i cittadini ad un rischio significativo per la sicurezza, la salute o per i diritti fondamentali. In questi sistemi rientrano:
- i sistemi di categorizzazione e di identificazione biometrica o per il riconoscimento delle emozioni;
- applicativi di sicurezza di infrastrutture critiche;
- software di formazione/educativi per la valutazione dei risultati di studio, per assegnare corsi e per il controllo degli studenti durante gli esami;
- algoritmi per la valutazione dei curriculum, per la distribuzione di compiti e impieghi;
- algoritmi utilizzati dalla PA o da enti privati per la distribuzione di sussidi, per la classificazione delle richieste d’emergenza, per scoprire frodi finanziarie e per stabilire il grado di rischio nel momento in cui si sottoscrive un’assicurazione;
- algoritmi utilizzati dalle forze dell’ordine e dalle autorità di frontiera per la valutazione dei rischi, per scoprire l’immigrazione illegale e per stabilire pericoli di tipo sanitario.
La Commissione fornirà le linee guida per l’applicazione delle norme sui sistemi ad alto rischio entro 18 mesi dall’entrata in vigore del regolamento. Verrà istituito un database contenente tutti i sistemi ad alto rischio utilizzati nel territorio Ue.
Chi sviluppa questi sistemi di intelligenza artificiale dovrà stabilirne anche sistemi di controllo, gestendo i dati nella maniera più chiara possibile e spiegando da dove provengono le informazioni utilizzate: il tutto, ovviamente, sotto stretto controllo di un essere umano.
Obbligatorio un «bottone di stop o una procedura simile, che consente al sistema di bloccarsi in modo sicuro» nel caso di pericolo imminente.
Per quanto riguarda le intelligenze artificiali per uso generale, come ChatGPT, gli sviluppatori dovranno assicurarsi che i contenuti generati siano riconoscibili in quanto generati da un’IA. Gli utenti, infatti, dovranno sempre essere consapevoli di interagire con un chatbot, soprattutto nel caso dei deepfake, che dovranno contenere un watermark (una filigrana).
Leggi anche: Se Keanu Reeves ti chiede 20mila euro, probabilmente è un Deepfake
Verrà istituito un Consiglio dell’AI, nel quale dovrà essere presente un esponente per ogni Stato dell’Unione. Tale Consiglio verrà strutturato in due sotto-gruppi: uno si occuperà della sorveglianza del mercato e uno delle notifiche delle autorità.
Inoltre, nell’AI Act viene stabilito che la segnalazione di un incidente riguardante un sistema ad alto rischio deve avvenire entro due giorni dal fatto o dalla consapevolezza di questo: in caso contrario si rischiano multe sino a 35 milioni di euro. Nel caso di utilizzi impropri, le multe saranno pari al 7% del fatturato globale.
Il documento è stato condiviso con gli Stati membri lunedì 22 gennaio 2024, mentre il voto del Comitato dei Rappresentanti Permanenti avverrà il 2 febbraio 2024.
LEGGI ANCHE:
Garante Privacy: necessarie maggiori tutele nel processo penale