ChatGPT, il più noto sistema di intelligenza artificiale generativa, finisce al centro del dibattito giuridico italiano. Due recenti vicende, rispettivamente nei Tribunali di Roma e Firenze, riportano l’attenzione sulle implicazioni legali e deontologiche dell’utilizzo di questi strumenti nel contesto professionale e giudiziario.
Roma: la legittimità della sanzione del Garante
La prima vicenda riguarda direttamente OpenAI, società statunitense creatrice di ChatGPT, che ha presentato ricorso contro il provvedimento n. 755/2024 con cui il Garante per la protezione dei dati personali ha inflitto una sanzione amministrativa di 15 milioni di euro. Le violazioni contestate vanno dalla mancata notifica di un data breach alla carenza di una base giuridica per il trattamento dei dati, fino all’insufficiente tutela dei minori.
Il procedimento, iscritto al n. R.G. 4785/2025, è ora all’esame del Tribunale di Roma, che con ordinanza del 21 marzo ha sospeso cautelarmente il provvedimento del Garante, subordinandone però l’efficacia al versamento di una cauzione da parte di OpenAI. I giudici dovranno pronunciarsi nel merito sulla proporzionalità della sanzione e sulla legittimità delle contestazioni, ma la posta in gioco è ben più ampia.
La decisione del Tribunale romano potrebbe tracciare una linea guida per il futuro assetto regolatorio italiano ed europeo in materia di IA, in un momento in cui la Commissione UE sta valutando una semplificazione del GDPR. Un verdetto atteso, quindi, non solo dai giuristi ma anche dai decisori politici e dai player tecnologici.
Firenze: le “allucinazioni” di ChatGPT negli atti difensivi
La seconda vicenda, meno eclatante ma altrettanto significativa, proviene dal Tribunale di Firenze. In un procedimento in materia di marchi e contraffazione, uno degli avvocati ha fatto uso di ChatGPT per una ricerca giurisprudenziale. Il risultato? Sentenze inesistenti, generate dal sistema in quella che viene comunemente definita “hallucination”.
Nonostante l’errore, il Tribunale ha scelto di non sanzionare il legale, ritenendo che il riferimento a decisioni mai emesse non abbia inciso sulla sostanza della strategia difensiva. Tuttavia, l’episodio ha sollevato interrogativi cruciali sull’affidabilità dell’IA generativa e sulle responsabilità professionali nell’uso di strumenti digitali.
Verso una regolamentazione etica e giuridica
Nel frattempo, numerose imprese ed enti pubblici stanno adottando policy interne sull’uso dell’intelligenza artificiale, a testimonianza di una crescente consapevolezza sull’urgenza di governare – e non subire – l’innovazione.
Se da un lato l’IA rappresenta una straordinaria opportunità per il mondo del lavoro e per la giustizia, dall’altro ne emerge la necessità di fissare regole chiare, evitando improvvisazioni pericolose. E i giudici italiani, da Roma a Firenze, sembrano ormai chiamati a fare da apripista in questo nuovo e delicato territorio.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE
SPID sotto attacco: così il furto dell’identità digitale passa per trappole invisibili
Dietro il boom di truffe digitali si nasconde un sistema che espone i cittadini a rischi invisibili: SPID diventa terreno fertile per furti d’identità e…
Controllare la navigazione internet dei propri dipendenti può costare caro
Fino a che punto le attività dei lavoratori possono essere sorvegliate dal datore? Una risposta ce la offre il caso del Comune di Bolzano, reo…
Nasce la Fondazione Forense di Rovigo
Lo scorso 20 novembre è stata fondata la Fondazione Forense di Rovigo, con presidente Palmiro Franco Tosini, ed è stata presentata in data 24/11/2023 da…
