L’intelligenza artificiale generativa ha ormai lasciato i laboratori di ricerca per diventare uno strumento centrale in molti settori, dalla creazione di contenuti digitali all’assistenza automatizzata, passando per applicazioni industriali e legali. Ma il suo utilizzo solleva interrogativi giuridici e rischi sociali che l’Unione Europea si prepara ad affrontare con la prima normativa organica al mondo in materia di AI: il Regolamento (UE) 2024/1689, noto come AI Act.
Approvato nel luglio 2024 ed entrato in vigore il 1° agosto dello stesso anno, l’AI Act segna un cambio di paradigma normativo, fissando un quadro vincolante di regole per lo sviluppo, l’uso e la commercializzazione di sistemi di intelligenza artificiale nel mercato europeo. E il 2025 sarà l’anno della svolta operativa, con i primi obblighi concreti per i fornitori di AI generativa.
Cosa prevede l’AI Act: classificazione e divieti
Il regolamento adotta un sistema di classificazione dei sistemi di AI per livello di rischio. I più pericolosi — quelli a “rischio inaccettabile” — come il social scoring e il riconoscimento facciale in tempo reale negli spazi pubblici, sono vietati dal febbraio 2025. I sistemi ad “alto rischio”, utilizzati in settori delicati come giustizia, istruzione o infrastrutture critiche, saranno invece sottoposti a requisiti rigorosi in materia di trasparenza, tracciabilità, auditabilità e supervisione umana, con piena applicazione a partire dal 2026.
Tra le misure più rilevanti c’è l’obbligo, dal 2 agosto 2025, per i fornitori di modelli di AI generativa di documentare e rendere disponibili informazioni dettagliate su:
-
Architettura del modello
-
Potenza computazionale utilizzata (in FLOPS)
-
Origine e tipologia dei dati di addestramento
-
Sistemi per prevenire la generazione di contenuti illegali
Un intervento normativo reso necessario dall’esplosione di piattaforme generative come Midjourney o Anthropic e dai contenziosi già in corso per violazioni di copyright e scraping non autorizzato di dati online.
Contenziosi aperti e nodi giuridici
La regolamentazione arriva infatti mentre la giurisprudenza internazionale è chiamata a tracciare i confini della liceità nell’uso dei dati e dei contenuti AI. Emblematico è il procedimento promosso da The Walt Disney Company e altri colossi dell’intrattenimento contro Midjourney, accusata di addestrare i propri algoritmi su materiali protetti da copyright.
Allo stesso modo, Reddit ha contestato ad Anthropic la raccolta massiva di post degli utenti senza autorizzazione, sollevando il tema della titolarità dei contenuti e del rispetto dei termini di servizio sulle piattaforme online.
Cause che contribuiscono a definire i limiti del cosiddetto fair use nell’era AI, un terreno giuridico ancora poco esplorato ma che il nuovo regolamento europeo punta a normare.
Gli obblighi per chi fornisce AI generativa
Il titolo IV del Regolamento e in particolare l’articolo 53 impongono ai fornitori di AI generativa di mantenere registri e documentazione tecnica per almeno dieci anni, garantendo piena trasparenza sull’origine dei dati e sulle performance dei modelli.
Inoltre, l’articolo 71 introduce un database pubblico europeo in cui saranno iscritti tutti i sistemi ad alto rischio prima della loro immissione sul mercato. Un registro accessibile alle autorità di controllo e ai consumatori, per aumentare la trasparenza e il controllo sociale sulle applicazioni AI più invasive.
Sanzioni e impatto per le imprese
Il mancato rispetto delle disposizioni potrà costare fino al 7% del fatturato mondiale annuo dell’operatore coinvolto, una soglia che rende evidente quanto il legislatore europeo punti a un’effettiva deterrenza.
Per questo, le imprese devono attrezzarsi da subito, mappando i propri sistemi AI, valutandone il livello di rischio e predisponendo le documentazioni richieste. Sarà inoltre necessario aggiornare contratti, policy aziendali e procedure di audit, con particolare attenzione al coordinamento tra AI Act e normative già vigenti come il GDPR, soprattutto in caso di trattamento di dati personali.
Un ruolo strategico per gli studi legali
In questo scenario, gli studi legali specializzati in tecnologia e diritto digitale avranno un compito cruciale: affiancare aziende e sviluppatori nel percorso di conformità, nella stesura di clausole contrattuali dedicate all’allocazione dei rischi e nella redazione delle valutazioni d’impatto, obbligatorie per i sistemi più critici.
Diventerà imprescindibile anche l’adozione di programmi di formazione aziendale sull’uso responsabile dell’intelligenza artificiale, già richiesti dal regolamento per chi impiega modelli generativi in contesti commerciali.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

25 aprile, Festa della Liberazione. UNCC: “L’Avvocatura presidio di libertà e diritti”
L’Unione Nazionale delle Camere Civili celebra il 25 aprile ricordando il valore fondativo della Liberazione e il ruolo quotidiano dell’Avvocatura nella tutela dei diritti e…

Sempre più attacchi con codice QR: come possiamo difenderci?
Nel 2023, secondo l’ultimo report di Cisco Talos, sono aumentati significativamente gli attacchi phishing attraverso scansione dei codici QR. Tradizionalmente, gli attacchi di phishing consistono…

Quando è prevista la radiazione per l’Avvocato?
Gli avvocati non devono soltanto svolgere con diligenza il proprio lavoro, ma devono anche essere corretti nei rapporti con colleghi, giudici e clienti. Se un…