Redazione 28 Marzo 2025

Errore di ChatGPT in memoria difensiva: nessuna condanna per lite temeraria

L’utilizzo di riferimenti giurisprudenziali errati generati da ChatGPT in una memoria difensiva non giustifica la condanna per lite temeraria. Lo ha stabilito la Sezione imprese del Tribunale di Firenze, affrontando per la prima volta il tema nell’ambito di un giudizio sulla tutela dei marchi e del diritto d’autore.

Il caso è nato da un procedimento per reclamo contro il sequestro di beni contraffatti. La parte vittoriosa aveva chiesto la condanna della controparte ai sensi dell’art. 96 c.p.c., sostenendo che la citazione di sentenze inesistenti avesse influenzato il giudizio del Collegio. Tuttavia, i giudici hanno respinto la richiesta, ritenendo che i riferimenti errati fossero stati inseriti solo per rafforzare una linea difensiva già delineata, senza alcuna intenzione di agire in malafede o con colpa grave.

Nella sentenza si evidenzia che il fenomeno delle “allucinazioni” dell’intelligenza artificiale – ossia la generazione di informazioni inesistenti ma apparentemente credibili – può portare a risultati fuorvianti. In questo caso, ChatGPT aveva attribuito numeri e contenuti a sentenze della Corte di Cassazione che in realtà non esistevano.

Il difensore della società coinvolta ha ammesso l’errore, spiegando che i riferimenti giurisprudenziali erano stati raccolti da una collaboratrice tramite IA, senza che il patrocinatore ne fosse a conoscenza. Dopo aver riconosciuto l’omesso controllo, ha chiesto lo stralcio delle citazioni inesatte, ribadendo che la strategia difensiva non mirava a ingannare il tribunale.

Il Tribunale ha richiamato la giurisprudenza della Cassazione, sottolineando che per applicare la responsabilità aggravata è necessario dimostrare sia l’esistenza del danno che la sua entità. Nel caso in esame, la parte reclamante non ha fornito alcuna prova di danni subiti a causa dell’errore, rendendo inapplicabile la sanzione prevista dall’art. 96 c.p.c. Inoltre, i giudici hanno escluso la possibilità di condanna d’ufficio, poiché non si è ravvisata una condotta processuale abusiva.

La decisione del Tribunale di Firenze segna un importante precedente sull’uso dell’intelligenza artificiale nel processo civile, evidenziando la necessità di un controllo attento delle informazioni fornite dagli strumenti di IA per evitare fraintendimenti e contestazioni processuali.


LEGGI ANCHE

Nordio: “La legge Severino va cambiata”

In un’intervista al Corriere della Sera, il ministro della Giustizia Carlo Nordio ha parlato della possibilità di modificare la legge Severino: «Occorre far sì che…

g7 avvocature intelligenza artificiale

G7 Avvocature: “L’intelligenza artificiale non potrà sostituire le persone”

Sette anni fa è nato il G7 delle Avvocature. In quel momento, il Consiglio Nazionale Forense, decise di costituire un tavolo di lavoro permanente tra…

Avvocato manca le udienze: si pronuncia il CNF

Roma, 3 luglio 2024 – Il Consiglio nazionale forense ha confermato con la sentenza n. 52/2024 la sospensione per sei mesi dall’esercizio della professione per…

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto