Redazione 15 Aprile 2025

ChatGPT alla sbarra: l’IA protagonista nei Tribunali di Roma e Firenze

ChatGPT, il più noto sistema di intelligenza artificiale generativa, finisce al centro del dibattito giuridico italiano. Due recenti vicende, rispettivamente nei Tribunali di Roma e Firenze, riportano l’attenzione sulle implicazioni legali e deontologiche dell’utilizzo di questi strumenti nel contesto professionale e giudiziario.

Roma: la legittimità della sanzione del Garante

La prima vicenda riguarda direttamente OpenAI, società statunitense creatrice di ChatGPT, che ha presentato ricorso contro il provvedimento n. 755/2024 con cui il Garante per la protezione dei dati personali ha inflitto una sanzione amministrativa di 15 milioni di euro. Le violazioni contestate vanno dalla mancata notifica di un data breach alla carenza di una base giuridica per il trattamento dei dati, fino all’insufficiente tutela dei minori.

Il procedimento, iscritto al n. R.G. 4785/2025, è ora all’esame del Tribunale di Roma, che con ordinanza del 21 marzo ha sospeso cautelarmente il provvedimento del Garante, subordinandone però l’efficacia al versamento di una cauzione da parte di OpenAI. I giudici dovranno pronunciarsi nel merito sulla proporzionalità della sanzione e sulla legittimità delle contestazioni, ma la posta in gioco è ben più ampia.

La decisione del Tribunale romano potrebbe tracciare una linea guida per il futuro assetto regolatorio italiano ed europeo in materia di IA, in un momento in cui la Commissione UE sta valutando una semplificazione del GDPR. Un verdetto atteso, quindi, non solo dai giuristi ma anche dai decisori politici e dai player tecnologici.

Firenze: le “allucinazioni” di ChatGPT negli atti difensivi

La seconda vicenda, meno eclatante ma altrettanto significativa, proviene dal Tribunale di Firenze. In un procedimento in materia di marchi e contraffazione, uno degli avvocati ha fatto uso di ChatGPT per una ricerca giurisprudenziale. Il risultato? Sentenze inesistenti, generate dal sistema in quella che viene comunemente definita “hallucination”.

Nonostante l’errore, il Tribunale ha scelto di non sanzionare il legale, ritenendo che il riferimento a decisioni mai emesse non abbia inciso sulla sostanza della strategia difensiva. Tuttavia, l’episodio ha sollevato interrogativi cruciali sull’affidabilità dell’IA generativa e sulle responsabilità professionali nell’uso di strumenti digitali.

Verso una regolamentazione etica e giuridica

Nel frattempo, numerose imprese ed enti pubblici stanno adottando policy interne sull’uso dell’intelligenza artificiale, a testimonianza di una crescente consapevolezza sull’urgenza di governare – e non subire – l’innovazione.

Se da un lato l’IA rappresenta una straordinaria opportunità per il mondo del lavoro e per la giustizia, dall’altro ne emerge la necessità di fissare regole chiare, evitando improvvisazioni pericolose. E i giudici italiani, da Roma a Firenze, sembrano ormai chiamati a fare da apripista in questo nuovo e delicato territorio.


LEGGI ANCHE

De Luca: sì al terzo mandato, ma scontro con il PD e il governo. E Zaia in attesa

Il Consiglio regionale della Campania ha approvato una legge che consente al presidente Vincenzo De Luca di ricandidarsi per un terzo mandato

Codice della Strada, la Cassazione: “Il guidatore risponde per i passeggeri senza cintura in caso di incidente”

Un’importante novità in materia di responsabilità penale e civile arriva dalla Corte di Cassazione, che ha ribadito l'obbligo per il conducente di vigilare sull'uso delle…

giudici di pace

La disputa del badge: anche gli avvocati della Regione devono timbrarlo

Il Consiglio di Stato ha stabilito che anche gli avvocati della Regione Campania devono timbrare il cartellino come tutti gli altri dipendenti, accogliendo l’appello di…

TORNA ALLE NOTIZIE

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto