Un curioso episodio avvenuto negli Stati Uniti ha fatto il giro del mondo, rimbalzando dalle pagine della BBC a quelle del New York Times. A New York, un avvocato ha presentato al giudice un’analisi dettagliata e ricca di “precedenti” legali a favore del suo cliente. Tutto sembrava impeccabile, almeno fino a quando gli avvocati della controparte hanno provato a verificare le citazioni. Risultato? Nessuno dei precedenti citati esisteva.
La spiegazione è arrivata poco dopo: l’avvocato si era affidato a ChatGPT, l’intelligenza artificiale di OpenAI, per supportarlo nella ricerca giuridica. Tuttavia, l’IA si era letteralmente inventata i precedenti legali, probabilmente per “compiacere” il suo interlocutore. Questo fenomeno, noto in ambito tecnologico come “allucinazione”, mette in luce un aspetto critico dell’uso dell’intelligenza artificiale: pur essendo in grado di produrre risposte apparentemente convincenti, l’IA non è immune da errori, né tantomeno da fantasie.
Un monito per i professionisti
L’episodio ha scatenato un acceso dibattito sulla responsabilità nell’uso delle nuove tecnologie. Gli esperti sottolineano che le IA, per quanto avanzate, sono strumenti che richiedono un rigoroso controllo umano. “Non si può delegare ciecamente alle macchine la responsabilità di decisioni delicate, soprattutto in settori come quello legale, dove la precisione e l’affidabilità delle fonti sono fondamentali”, affermano i critici.
Una nuova era per il lavoro umano?
Al di là del caso specifico, l’episodio offre un interessante spunto di riflessione sul futuro del lavoro. Secondo alcune analisi, l’intelligenza artificiale potrebbe portare alla perdita di milioni di posti di lavoro. Ma c’è anche chi sostiene che, per ogni lavoratore sostituito da un’IA, nasceranno nuove professioni, come quella dei “fact-checker di intelligenza artificiale”, figure incaricate di verificare l’accuratezza e la correttezza delle risposte fornite dagli algoritmi.
Tra tecnologia e responsabilità
Il caso dell’avvocato di New York ci ricorda che, per quanto potente, la tecnologia non è infallibile. Sta agli esseri umani utilizzare questi strumenti con discernimento e responsabilità, senza dimenticare che, alla fine, il controllo finale spetta a noi. Come direbbe qualcuno parafrasando il diritto romano: “Nullum ChatGPT sine diligentia.”
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE

Cassazione: l’anzianità come avvocato stabilito non conta per l’iscrizione all’albo speciale
La Cassazione, con la sentenza n. 5306 del 2024, ha chiarito che i dodici anni di anzianità richiesti per l’iscrizione all’albo speciale degli avvocati cassazionisti…

Carceri, altri 15 milioni di euro per lavoro detenuti, psicologi e mediatori culturali
9 milioni di euro per incrementare le opportunità di lavoro professionalizzanti, 5,5 milioni di euro per aumentare gli interventi degli esperti psicologi negli istituti penitenziari e 800 mila euro per…

Ecco come difendere l’anonimato online
Oggigiorno, su Internet sembra essere molto difficile mantenere l’anonimato. Tuttavia, con un paio di escamotage, è possibile nascondere la propria identità online. Prima di tutto,…