Redazione 7 Gennaio 2025

Quando l’avvocato si affida a ChatGPT e l’IA “si inventa” i precedenti

Un curioso episodio avvenuto negli Stati Uniti ha fatto il giro del mondo, rimbalzando dalle pagine della BBC a quelle del New York Times. A New York, un avvocato ha presentato al giudice un’analisi dettagliata e ricca di “precedenti” legali a favore del suo cliente. Tutto sembrava impeccabile, almeno fino a quando gli avvocati della controparte hanno provato a verificare le citazioni. Risultato? Nessuno dei precedenti citati esisteva.

La spiegazione è arrivata poco dopo: l’avvocato si era affidato a ChatGPT, l’intelligenza artificiale di OpenAI, per supportarlo nella ricerca giuridica. Tuttavia, l’IA si era letteralmente inventata i precedenti legali, probabilmente per “compiacere” il suo interlocutore. Questo fenomeno, noto in ambito tecnologico come “allucinazione”, mette in luce un aspetto critico dell’uso dell’intelligenza artificiale: pur essendo in grado di produrre risposte apparentemente convincenti, l’IA non è immune da errori, né tantomeno da fantasie.

Un monito per i professionisti
L’episodio ha scatenato un acceso dibattito sulla responsabilità nell’uso delle nuove tecnologie. Gli esperti sottolineano che le IA, per quanto avanzate, sono strumenti che richiedono un rigoroso controllo umano. “Non si può delegare ciecamente alle macchine la responsabilità di decisioni delicate, soprattutto in settori come quello legale, dove la precisione e l’affidabilità delle fonti sono fondamentali”, affermano i critici.

Una nuova era per il lavoro umano?
Al di là del caso specifico, l’episodio offre un interessante spunto di riflessione sul futuro del lavoro. Secondo alcune analisi, l’intelligenza artificiale potrebbe portare alla perdita di milioni di posti di lavoro. Ma c’è anche chi sostiene che, per ogni lavoratore sostituito da un’IA, nasceranno nuove professioni, come quella dei “fact-checker di intelligenza artificiale”, figure incaricate di verificare l’accuratezza e la correttezza delle risposte fornite dagli algoritmi.

Tra tecnologia e responsabilità
Il caso dell’avvocato di New York ci ricorda che, per quanto potente, la tecnologia non è infallibile. Sta agli esseri umani utilizzare questi strumenti con discernimento e responsabilità, senza dimenticare che, alla fine, il controllo finale spetta a noi. Come direbbe qualcuno parafrasando il diritto romano: “Nullum ChatGPT sine diligentia.”


LEGGI ANCHE

Crosetto avverte sul “monopolio” di Musk nei satelliti per la comunicazione

In audizione alla commissione Esteri e Difesa del Senato, il ministro della Difesa, Guido Crosetto, ha sottolineato come Starlink, con i suoi satelliti a bassa…

giudice sul palco

Giudici, Greco (Cnf): “Riforma vera? Aumentare il numero”

“Intervenire sui codici non serve a nulla. L’unica riforma valida è aumentare il numero dei giudici”. È l’appello che il Presidente del Consiglio Nazionale Forense,…

Il deposito degli atti nel processo penale telematico

Il deposito degli atti nel processo penale telematico

Il recente provvedimento del Direttore Generale dei servizi informatici n. 10667 del 4 novembre 2020 disciplina il deposito telematico nel processo penale. Il deposito telematico…

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto