L’avvocato americano Steven Schwartz ha trovato un alleato in ChatGpt, il chatbot più famoso del mondo, che l’ha aiutato nella stesura di un documento legale per la difesa di un suo cliente.
Quest’ultimo ha citato in giudizio Avianca, compagnia aerea colombiana, poiché è stato ferito al ginocchio durante un volo di linea da un carrello di servizio. Purtroppo, il documento scritto da ChatGpt era pieno di informazioni completamente inventate.
L’avvocato avrebbe chiesto all’intelligenza artificiale di aiutarlo per convincere il giudice federale a non procedere all’archiviazione del caso, e per questo ChatGpt ha effettuato una ricerca approfondita su casi simili a quello del cliente.
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Nel documento scritto dall’intelligenza artificiale sono stati riportati almeno una dozzina di esempi di casi simili, anche se nessuno di questi è risultato essere avvenuto realmente.
L’avvocato avrebbe chiesto esplicitamente al bot se stesse dicendo la verità. ChatGpt ha risposto che tutti i casi riportati erano veri, in quanto presenti su database legali affidabili come LexisNexis e Westlaw. Ma l’avvocato della difesa ha dimostrato che nessun caso era realmente esistente.
Dunque, il chatbot avrebbe rilasciato informazioni false, costringendo l’avvocato ad andare incontro a sanzioni legali. Schwartz ha cercato di giustificarsi affermando che non era «a conoscenza della possibilità che il contenuto di ChatGpt potesse essere falso», senza però convincere il giudice.
È evidente, quindi, che l’intelligenza artificiale non può lavorare in autonomia, e che è ancora necessaria la piena supervisione umana per permettere il suo funzionamento corretto.
LEGGI ANCHE:
Possiamo risparmiare sull’assicurazione con l’Intelligenza Artificiale?