Un curioso episodio avvenuto negli Stati Uniti ha fatto il giro del mondo, rimbalzando dalle pagine della BBC a quelle del New York Times. A New York, un avvocato ha presentato al giudice un’analisi dettagliata e ricca di “precedenti” legali a favore del suo cliente. Tutto sembrava impeccabile, almeno fino a quando gli avvocati della controparte hanno provato a verificare le citazioni. Risultato? Nessuno dei precedenti citati esisteva.
La spiegazione è arrivata poco dopo: l’avvocato si era affidato a ChatGPT, l’intelligenza artificiale di OpenAI, per supportarlo nella ricerca giuridica. Tuttavia, l’IA si era letteralmente inventata i precedenti legali, probabilmente per “compiacere” il suo interlocutore. Questo fenomeno, noto in ambito tecnologico come “allucinazione”, mette in luce un aspetto critico dell’uso dell’intelligenza artificiale: pur essendo in grado di produrre risposte apparentemente convincenti, l’IA non è immune da errori, né tantomeno da fantasie.
Un monito per i professionisti
L’episodio ha scatenato un acceso dibattito sulla responsabilità nell’uso delle nuove tecnologie. Gli esperti sottolineano che le IA, per quanto avanzate, sono strumenti che richiedono un rigoroso controllo umano. “Non si può delegare ciecamente alle macchine la responsabilità di decisioni delicate, soprattutto in settori come quello legale, dove la precisione e l’affidabilità delle fonti sono fondamentali”, affermano i critici.
Una nuova era per il lavoro umano?
Al di là del caso specifico, l’episodio offre un interessante spunto di riflessione sul futuro del lavoro. Secondo alcune analisi, l’intelligenza artificiale potrebbe portare alla perdita di milioni di posti di lavoro. Ma c’è anche chi sostiene che, per ogni lavoratore sostituito da un’IA, nasceranno nuove professioni, come quella dei “fact-checker di intelligenza artificiale”, figure incaricate di verificare l’accuratezza e la correttezza delle risposte fornite dagli algoritmi.
Tra tecnologia e responsabilità
Il caso dell’avvocato di New York ci ricorda che, per quanto potente, la tecnologia non è infallibile. Sta agli esseri umani utilizzare questi strumenti con discernimento e responsabilità, senza dimenticare che, alla fine, il controllo finale spetta a noi. Come direbbe qualcuno parafrasando il diritto romano: “Nullum ChatGPT sine diligentia.”
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

Ammonimento o reato? Il TAR di Bari fa chiarezza sullo stalking
Il Tribunale Amministrativo Regionale di Bari ha recentemente emesso una sentenza che fa chiarezza su un tema di grande attualità: la differenza tra l’ammonimento del…

Esempi di Mail di Phishing
Il phishing è una tipologia di truffa esercitata attraverso l’invio di mail che sembrano provenire da istituti di credito, enti o aziende, in cui vengono comunicati presunti problemi…

Parcelle avvocati: ok al procedimento di ingiunzione
Il D.L. n. 1/2012 non abroga il procedimento ingiuntivo di cui agli artt. 633 e 636 c.p.c. Nell’ambito della liquidazione del loro compenso, gli avvocati…