Redazione 3 Luglio 2025

AI generativa, stretta normativa dal 2025: nuovi obblighi per dati, trasparenza e sicurezza

L’intelligenza artificiale generativa ha ormai lasciato i laboratori di ricerca per diventare uno strumento centrale in molti settori, dalla creazione di contenuti digitali all’assistenza automatizzata, passando per applicazioni industriali e legali. Ma il suo utilizzo solleva interrogativi giuridici e rischi sociali che l’Unione Europea si prepara ad affrontare con la prima normativa organica al mondo in materia di AI: il Regolamento (UE) 2024/1689, noto come AI Act.

Approvato nel luglio 2024 ed entrato in vigore il 1° agosto dello stesso anno, l’AI Act segna un cambio di paradigma normativo, fissando un quadro vincolante di regole per lo sviluppo, l’uso e la commercializzazione di sistemi di intelligenza artificiale nel mercato europeo. E il 2025 sarà l’anno della svolta operativa, con i primi obblighi concreti per i fornitori di AI generativa.

Cosa prevede l’AI Act: classificazione e divieti

Il regolamento adotta un sistema di classificazione dei sistemi di AI per livello di rischio. I più pericolosi — quelli a “rischio inaccettabile” — come il social scoring e il riconoscimento facciale in tempo reale negli spazi pubblici, sono vietati dal febbraio 2025. I sistemi ad “alto rischio”, utilizzati in settori delicati come giustizia, istruzione o infrastrutture critiche, saranno invece sottoposti a requisiti rigorosi in materia di trasparenza, tracciabilità, auditabilità e supervisione umana, con piena applicazione a partire dal 2026.

Tra le misure più rilevanti c’è l’obbligo, dal 2 agosto 2025, per i fornitori di modelli di AI generativa di documentare e rendere disponibili informazioni dettagliate su:

  • Architettura del modello

  • Potenza computazionale utilizzata (in FLOPS)

  • Origine e tipologia dei dati di addestramento

  • Sistemi per prevenire la generazione di contenuti illegali

Un intervento normativo reso necessario dall’esplosione di piattaforme generative come Midjourney o Anthropic e dai contenziosi già in corso per violazioni di copyright e scraping non autorizzato di dati online.

Contenziosi aperti e nodi giuridici

La regolamentazione arriva infatti mentre la giurisprudenza internazionale è chiamata a tracciare i confini della liceità nell’uso dei dati e dei contenuti AI. Emblematico è il procedimento promosso da The Walt Disney Company e altri colossi dell’intrattenimento contro Midjourney, accusata di addestrare i propri algoritmi su materiali protetti da copyright.

Allo stesso modo, Reddit ha contestato ad Anthropic la raccolta massiva di post degli utenti senza autorizzazione, sollevando il tema della titolarità dei contenuti e del rispetto dei termini di servizio sulle piattaforme online.

Cause che contribuiscono a definire i limiti del cosiddetto fair use nell’era AI, un terreno giuridico ancora poco esplorato ma che il nuovo regolamento europeo punta a normare.

Gli obblighi per chi fornisce AI generativa

Il titolo IV del Regolamento e in particolare l’articolo 53 impongono ai fornitori di AI generativa di mantenere registri e documentazione tecnica per almeno dieci anni, garantendo piena trasparenza sull’origine dei dati e sulle performance dei modelli.

Inoltre, l’articolo 71 introduce un database pubblico europeo in cui saranno iscritti tutti i sistemi ad alto rischio prima della loro immissione sul mercato. Un registro accessibile alle autorità di controllo e ai consumatori, per aumentare la trasparenza e il controllo sociale sulle applicazioni AI più invasive.

Sanzioni e impatto per le imprese

Il mancato rispetto delle disposizioni potrà costare fino al 7% del fatturato mondiale annuo dell’operatore coinvolto, una soglia che rende evidente quanto il legislatore europeo punti a un’effettiva deterrenza.

Per questo, le imprese devono attrezzarsi da subito, mappando i propri sistemi AI, valutandone il livello di rischio e predisponendo le documentazioni richieste. Sarà inoltre necessario aggiornare contratti, policy aziendali e procedure di audit, con particolare attenzione al coordinamento tra AI Act e normative già vigenti come il GDPR, soprattutto in caso di trattamento di dati personali.

Un ruolo strategico per gli studi legali

In questo scenario, gli studi legali specializzati in tecnologia e diritto digitale avranno un compito cruciale: affiancare aziende e sviluppatori nel percorso di conformità, nella stesura di clausole contrattuali dedicate all’allocazione dei rischi e nella redazione delle valutazioni d’impatto, obbligatorie per i sistemi più critici.

Diventerà imprescindibile anche l’adozione di programmi di formazione aziendale sull’uso responsabile dell’intelligenza artificiale, già richiesti dal regolamento per chi impiega modelli generativi in contesti commerciali.


LEGGI ANCHE

25 aprile, Festa della Liberazione. UNCC: “L’Avvocatura presidio di libertà e diritti”

L’Unione Nazionale delle Camere Civili celebra il 25 aprile ricordando il valore fondativo della Liberazione e il ruolo quotidiano dell’Avvocatura nella tutela dei diritti e…

attacchi phishing qr code

Sempre più attacchi con codice QR: come possiamo difenderci?

Nel 2023, secondo l’ultimo report di Cisco Talos, sono aumentati significativamente gli attacchi phishing attraverso scansione dei codici QR. Tradizionalmente, gli attacchi di phishing consistono…

Quando è prevista la radiazione per l’Avvocato?

Gli avvocati non devono soltanto svolgere con diligenza il proprio lavoro, ma devono anche essere corretti nei rapporti con colleghi, giudici e clienti. Se un…

TORNA ALLE NOTIZIE

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto