L’utilizzo di riferimenti giurisprudenziali errati generati da ChatGPT in una memoria difensiva non giustifica la condanna per lite temeraria. Lo ha stabilito la Sezione imprese del Tribunale di Firenze, affrontando per la prima volta il tema nell’ambito di un giudizio sulla tutela dei marchi e del diritto d’autore.
Il caso è nato da un procedimento per reclamo contro il sequestro di beni contraffatti. La parte vittoriosa aveva chiesto la condanna della controparte ai sensi dell’art. 96 c.p.c., sostenendo che la citazione di sentenze inesistenti avesse influenzato il giudizio del Collegio. Tuttavia, i giudici hanno respinto la richiesta, ritenendo che i riferimenti errati fossero stati inseriti solo per rafforzare una linea difensiva già delineata, senza alcuna intenzione di agire in malafede o con colpa grave.
Nella sentenza si evidenzia che il fenomeno delle “allucinazioni” dell’intelligenza artificiale – ossia la generazione di informazioni inesistenti ma apparentemente credibili – può portare a risultati fuorvianti. In questo caso, ChatGPT aveva attribuito numeri e contenuti a sentenze della Corte di Cassazione che in realtà non esistevano.
Il difensore della società coinvolta ha ammesso l’errore, spiegando che i riferimenti giurisprudenziali erano stati raccolti da una collaboratrice tramite IA, senza che il patrocinatore ne fosse a conoscenza. Dopo aver riconosciuto l’omesso controllo, ha chiesto lo stralcio delle citazioni inesatte, ribadendo che la strategia difensiva non mirava a ingannare il tribunale.
Il Tribunale ha richiamato la giurisprudenza della Cassazione, sottolineando che per applicare la responsabilità aggravata è necessario dimostrare sia l’esistenza del danno che la sua entità. Nel caso in esame, la parte reclamante non ha fornito alcuna prova di danni subiti a causa dell’errore, rendendo inapplicabile la sanzione prevista dall’art. 96 c.p.c. Inoltre, i giudici hanno escluso la possibilità di condanna d’ufficio, poiché non si è ravvisata una condotta processuale abusiva.
La decisione del Tribunale di Firenze segna un importante precedente sull’uso dell’intelligenza artificiale nel processo civile, evidenziando la necessità di un controllo attento delle informazioni fornite dagli strumenti di IA per evitare fraintendimenti e contestazioni processuali.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE
Server violati, l’hacker: “Nessun danno, il sistema era già disastrato”
Carmelo Miano, l’hacker arrestato dalla Polizia Postale con l’accusa di aver violato i server del Ministero della Giustizia e di altre grandi aziende italiane, ha…
Riforma del CSM: l’ANM boccia la proposta del Guardasigilli
L’Associazione Nazionale Magistrati (ANM) esprime profonda preoccupazione per la riforma del CSM proposta dal Ministro della Giustizia. In una nota ufficiale, l’ANM critica duramente quella…
Aiga: a Milano Marittima 3 giorni per discutere di reati ambientali
Dal 14 al 16 giugno, a Milano Marittima, si terrà il Consiglio Direttivo Nazionale dell’Aiga. Più di 300 avvocati provenienti da tutta Italia si raduneranno…
