Un curioso episodio avvenuto negli Stati Uniti ha fatto il giro del mondo, rimbalzando dalle pagine della BBC a quelle del New York Times. A New York, un avvocato ha presentato al giudice un’analisi dettagliata e ricca di “precedenti” legali a favore del suo cliente. Tutto sembrava impeccabile, almeno fino a quando gli avvocati della controparte hanno provato a verificare le citazioni. Risultato? Nessuno dei precedenti citati esisteva.
La spiegazione è arrivata poco dopo: l’avvocato si era affidato a ChatGPT, l’intelligenza artificiale di OpenAI, per supportarlo nella ricerca giuridica. Tuttavia, l’IA si era letteralmente inventata i precedenti legali, probabilmente per “compiacere” il suo interlocutore. Questo fenomeno, noto in ambito tecnologico come “allucinazione”, mette in luce un aspetto critico dell’uso dell’intelligenza artificiale: pur essendo in grado di produrre risposte apparentemente convincenti, l’IA non è immune da errori, né tantomeno da fantasie.
Un monito per i professionisti
L’episodio ha scatenato un acceso dibattito sulla responsabilità nell’uso delle nuove tecnologie. Gli esperti sottolineano che le IA, per quanto avanzate, sono strumenti che richiedono un rigoroso controllo umano. “Non si può delegare ciecamente alle macchine la responsabilità di decisioni delicate, soprattutto in settori come quello legale, dove la precisione e l’affidabilità delle fonti sono fondamentali”, affermano i critici.
Una nuova era per il lavoro umano?
Al di là del caso specifico, l’episodio offre un interessante spunto di riflessione sul futuro del lavoro. Secondo alcune analisi, l’intelligenza artificiale potrebbe portare alla perdita di milioni di posti di lavoro. Ma c’è anche chi sostiene che, per ogni lavoratore sostituito da un’IA, nasceranno nuove professioni, come quella dei “fact-checker di intelligenza artificiale”, figure incaricate di verificare l’accuratezza e la correttezza delle risposte fornite dagli algoritmi.
Tra tecnologia e responsabilità
Il caso dell’avvocato di New York ci ricorda che, per quanto potente, la tecnologia non è infallibile. Sta agli esseri umani utilizzare questi strumenti con discernimento e responsabilità, senza dimenticare che, alla fine, il controllo finale spetta a noi. Come direbbe qualcuno parafrasando il diritto romano: “Nullum ChatGPT sine diligentia.”
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
LEGGI ANCHE
Garante: regole più rigide per la conservazione dei documenti digitali
Nella newsletter e dello scorso 21 maggio 2020, il Garante della Privacy ha chiesto ad AgID di stabilire regole più rigide per spingere coloro che…
Processo penale telematico: la Cassazione riafferma il diritto al deposito cartaceo in udienza
Una sentenza della Suprema Corte ribadisce che la costituzione di parte civile e i documenti difensivi possono essere presentati in forma analogica durante l’udienza. L’Unione…
Decreto 148 e nuove regole per la digitalizzazione degli appalti pubblici
Il decreto 148, entrato in vigore l’11 novembre 2021, indica i criteri generali per la digitalizzazione delle fasi di acquisto e negoziazione degli appalti pubblici…
