L’utilizzo di riferimenti giurisprudenziali errati generati da ChatGPT in una memoria difensiva non giustifica la condanna per lite temeraria. Lo ha stabilito la Sezione imprese del Tribunale di Firenze, affrontando per la prima volta il tema nell’ambito di un giudizio sulla tutela dei marchi e del diritto d’autore.
Il caso è nato da un procedimento per reclamo contro il sequestro di beni contraffatti. La parte vittoriosa aveva chiesto la condanna della controparte ai sensi dell’art. 96 c.p.c., sostenendo che la citazione di sentenze inesistenti avesse influenzato il giudizio del Collegio. Tuttavia, i giudici hanno respinto la richiesta, ritenendo che i riferimenti errati fossero stati inseriti solo per rafforzare una linea difensiva già delineata, senza alcuna intenzione di agire in malafede o con colpa grave.
Nella sentenza si evidenzia che il fenomeno delle “allucinazioni” dell’intelligenza artificiale – ossia la generazione di informazioni inesistenti ma apparentemente credibili – può portare a risultati fuorvianti. In questo caso, ChatGPT aveva attribuito numeri e contenuti a sentenze della Corte di Cassazione che in realtà non esistevano.
Il difensore della società coinvolta ha ammesso l’errore, spiegando che i riferimenti giurisprudenziali erano stati raccolti da una collaboratrice tramite IA, senza che il patrocinatore ne fosse a conoscenza. Dopo aver riconosciuto l’omesso controllo, ha chiesto lo stralcio delle citazioni inesatte, ribadendo che la strategia difensiva non mirava a ingannare il tribunale.
Il Tribunale ha richiamato la giurisprudenza della Cassazione, sottolineando che per applicare la responsabilità aggravata è necessario dimostrare sia l’esistenza del danno che la sua entità. Nel caso in esame, la parte reclamante non ha fornito alcuna prova di danni subiti a causa dell’errore, rendendo inapplicabile la sanzione prevista dall’art. 96 c.p.c. Inoltre, i giudici hanno escluso la possibilità di condanna d’ufficio, poiché non si è ravvisata una condotta processuale abusiva.
La decisione del Tribunale di Firenze segna un importante precedente sull’uso dell’intelligenza artificiale nel processo civile, evidenziando la necessità di un controllo attento delle informazioni fornite dagli strumenti di IA per evitare fraintendimenti e contestazioni processuali.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

Revisione dei contratti: ChatGPT batte gli avvocati
Alcuni ricercatori neozelandesi della società Onit, produttrice di software e prodotti di IA per il mondo legale, hanno recentemente studiato le capacità dei LLM, i…

Sostituire il difensore assente? Potrebbe ledere il diritto di difesa
Cosa succede se un avvocato non riesce a partecipare all’udienza camerale perché non è in grado di collegarsi telematicamente? Può essere sostituito? Se sì, viene…

Cambiare avvocato durante la pratica forense: si può?
Sei uno studente di giurisprudenza e il tuo sogno, sin da bambino, è quello di diventare un bravissimo avvocato. Sei cresciuto a suon di film…