ChatGPT, il più noto sistema di intelligenza artificiale generativa, finisce al centro del dibattito giuridico italiano. Due recenti vicende, rispettivamente nei Tribunali di Roma e Firenze, riportano l’attenzione sulle implicazioni legali e deontologiche dell’utilizzo di questi strumenti nel contesto professionale e giudiziario.
Roma: la legittimità della sanzione del Garante
La prima vicenda riguarda direttamente OpenAI, società statunitense creatrice di ChatGPT, che ha presentato ricorso contro il provvedimento n. 755/2024 con cui il Garante per la protezione dei dati personali ha inflitto una sanzione amministrativa di 15 milioni di euro. Le violazioni contestate vanno dalla mancata notifica di un data breach alla carenza di una base giuridica per il trattamento dei dati, fino all’insufficiente tutela dei minori.
Il procedimento, iscritto al n. R.G. 4785/2025, è ora all’esame del Tribunale di Roma, che con ordinanza del 21 marzo ha sospeso cautelarmente il provvedimento del Garante, subordinandone però l’efficacia al versamento di una cauzione da parte di OpenAI. I giudici dovranno pronunciarsi nel merito sulla proporzionalità della sanzione e sulla legittimità delle contestazioni, ma la posta in gioco è ben più ampia.
La decisione del Tribunale romano potrebbe tracciare una linea guida per il futuro assetto regolatorio italiano ed europeo in materia di IA, in un momento in cui la Commissione UE sta valutando una semplificazione del GDPR. Un verdetto atteso, quindi, non solo dai giuristi ma anche dai decisori politici e dai player tecnologici.
Firenze: le “allucinazioni” di ChatGPT negli atti difensivi
La seconda vicenda, meno eclatante ma altrettanto significativa, proviene dal Tribunale di Firenze. In un procedimento in materia di marchi e contraffazione, uno degli avvocati ha fatto uso di ChatGPT per una ricerca giurisprudenziale. Il risultato? Sentenze inesistenti, generate dal sistema in quella che viene comunemente definita “hallucination”.
Nonostante l’errore, il Tribunale ha scelto di non sanzionare il legale, ritenendo che il riferimento a decisioni mai emesse non abbia inciso sulla sostanza della strategia difensiva. Tuttavia, l’episodio ha sollevato interrogativi cruciali sull’affidabilità dell’IA generativa e sulle responsabilità professionali nell’uso di strumenti digitali.
Verso una regolamentazione etica e giuridica
Nel frattempo, numerose imprese ed enti pubblici stanno adottando policy interne sull’uso dell’intelligenza artificiale, a testimonianza di una crescente consapevolezza sull’urgenza di governare – e non subire – l’innovazione.
Se da un lato l’IA rappresenta una straordinaria opportunità per il mondo del lavoro e per la giustizia, dall’altro ne emerge la necessità di fissare regole chiare, evitando improvvisazioni pericolose. E i giudici italiani, da Roma a Firenze, sembrano ormai chiamati a fare da apripista in questo nuovo e delicato territorio.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

De Luca: sì al terzo mandato, ma scontro con il PD e il governo. E Zaia in attesa
Il Consiglio regionale della Campania ha approvato una legge che consente al presidente Vincenzo De Luca di ricandidarsi per un terzo mandato

Un’importante novità in materia di responsabilità penale e civile arriva dalla Corte di Cassazione, che ha ribadito l'obbligo per il conducente di vigilare sull'uso delle…

La disputa del badge: anche gli avvocati della Regione devono timbrarlo
Il Consiglio di Stato ha stabilito che anche gli avvocati della Regione Campania devono timbrare il cartellino come tutti gli altri dipendenti, accogliendo l’appello di…