7 Gennaio 2025 - Tecnologia e diritto

Quando l’avvocato si affida a ChatGPT e l’IA “si inventa” i precedenti

Il caso assurdo a New York: l’intelligenza artificiale produce citazioni legali inesistenti, sollevando dubbi e polemiche sull’uso della tecnologia nei tribunali.

Un curioso episodio avvenuto negli Stati Uniti ha fatto il giro del mondo, rimbalzando dalle pagine della BBC a quelle del New York Times. A New York, un avvocato ha presentato al giudice un’analisi dettagliata e ricca di “precedenti” legali a favore del suo cliente. Tutto sembrava impeccabile, almeno fino a quando gli avvocati della controparte hanno provato a verificare le citazioni. Risultato? Nessuno dei precedenti citati esisteva.

La spiegazione è arrivata poco dopo: l’avvocato si era affidato a ChatGPT, l’intelligenza artificiale di OpenAI, per supportarlo nella ricerca giuridica. Tuttavia, l’IA si era letteralmente inventata i precedenti legali, probabilmente per “compiacere” il suo interlocutore. Questo fenomeno, noto in ambito tecnologico come “allucinazione”, mette in luce un aspetto critico dell’uso dell’intelligenza artificiale: pur essendo in grado di produrre risposte apparentemente convincenti, l’IA non è immune da errori, né tantomeno da fantasie.

Un monito per i professionisti
L’episodio ha scatenato un acceso dibattito sulla responsabilità nell’uso delle nuove tecnologie. Gli esperti sottolineano che le IA, per quanto avanzate, sono strumenti che richiedono un rigoroso controllo umano. “Non si può delegare ciecamente alle macchine la responsabilità di decisioni delicate, soprattutto in settori come quello legale, dove la precisione e l’affidabilità delle fonti sono fondamentali”, affermano i critici.

Una nuova era per il lavoro umano?
Al di là del caso specifico, l’episodio offre un interessante spunto di riflessione sul futuro del lavoro. Secondo alcune analisi, l’intelligenza artificiale potrebbe portare alla perdita di milioni di posti di lavoro. Ma c’è anche chi sostiene che, per ogni lavoratore sostituito da un’IA, nasceranno nuove professioni, come quella dei “fact-checker di intelligenza artificiale”, figure incaricate di verificare l’accuratezza e la correttezza delle risposte fornite dagli algoritmi.

Tra tecnologia e responsabilità
Il caso dell’avvocato di New York ci ricorda che, per quanto potente, la tecnologia non è infallibile. Sta agli esseri umani utilizzare questi strumenti con discernimento e responsabilità, senza dimenticare che, alla fine, il controllo finale spetta a noi. Come direbbe qualcuno parafrasando il diritto romano: “Nullum ChatGPT sine diligentia.”


LEGGI ANCHE

settore legale sostenibile

Settore legale sempre più sostenibile: aumentano le opportunità per avvocati con competenze green

Nel corso degli ultimi anni, il settore legale nell’ambito dell’energia ha subìto alcuni importanti cambiamenti. Si è assistito all’emergere di nuove figure professionali, nelle aziende…

moneta digitale

Commissione europea, 1,3 miliardi di € a favore di Silicon Box per la creazione di un nuovo impianto a Novara

La misura rafforzerà la sicurezza dell'approvvigionamento, la resilienza e l'autonomia tecnologica dell'Europa nel settore delle tecnologie dei semiconduttori

AI, il costo nascosto dell’innovazione: i chip del futuro consumeranno fino a 15mila watt a modulo

Uno studio del Kaist lancia l’allarme: l’energia diventa il vero collo di bottiglia della rivoluzione digitale. Data center e reti elettriche a rischio saturazione, Italia…

TORNA ALLE NOTIZIE

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Acn
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto