23 Febbraio 2023

Chatbot per Studi Legali: sì o no?

Nel settembre del 2022, David Wakeling, il responsabile del gruppo di innovazione dei mercati di uno Studio Legale londinese, si è imbattuto in Harvey, uno strumento di intelligenza artificiale generativa interamente dedicato al settore legale.

Lo strumento è stato sviluppato dalla ormai conosciutissima società OpenAI. Alcuni avvocati di questo Studio Legale avrebbero dovuto utilizzare il servizio per riuscire a rispondere a delle semplici domande giuridiche, per redigere documenti e per inviare alcuni messaggi ai clienti.

La sperimentazione, inizialmente limitata, si è allargata nel giro di pochissimo tempo. Infatti, ben 3500 dipendenti dei 43 uffici dell’azienda in questione hanno cominciato ad utilizzare lo strumento, al quale hanno rivolto più di 40mila domande.

L’inizio di un cambiamento di paradigma

Oggi lo Studio Legale ha cominciato una partnership con il servizio, al fine di integrare Harvey in tutta l’azienda. Un avvocato su quattro dello Studio Legale in questione usa lo strumento di Ai ogni giorno, mentre l’80% lo utilizza una volta al mese. Inoltre, l’azienda comunica che ci sono anche altri Studi che cominciano ad utilizzare lo strumento.

La diffusione dell’intelligenza artificiale e l’eventualità che riesca a rivoluzionare il settore legale sono stati annunciati più volte nel passato. Tuttavia, grazie al recente boom degli strumenti di Ai generativa, come ChatGpt, gli avvocati si stanno lasciando andare a queste tecnologie, come Wakeling: «Penso che sia l’inizio di un cambiamento di paradigma: credo che questa tecnologia si adatti molto al settore legale».

Leggi anche: «Copyright violato»: gli artisti denunciano l’intelligenza artificiale

La tecnologia potrebbe essere perfetta per il settore legale, che comincia a fare sempre più affidamento su documenti standardizzati.

Lilian Edwards, docente di diritto, innovazione e società alla Newcastle University spiega: «Applicazioni legali come la creazione di contratti, passaggi di proprietà o licenze in realtà sono un’area relativamente sicura in cui impiegare ChatGpt e i suoi cugini».

Continua: «La generazione automatizzata di documenti legali è un’area in crescita da decenni, perché gli studi legali possono attingere a grandi quantità di modelli altamente standardizzati e banche di precedenti su cui basare la generazione di documenti, rendendo i risultati molto più prevedibili rispetto alla maggior parte dei testi prodotti liberamente».

Ma i problemi relativi alle creazioni dell’Ai generativa cominciano già a farsi sentire. In primo luogo, si è notato come questi strumenti si inventino delle cose di sana pianta. È un aspetto che rappresenta un problema non indifferente in ambito di ricerche online; in campo giuridico, invece, potrebbe determinare la differenza tra il successo e il fallimento, comportando anche una notevole perdita economica.

Gabriel Pereyra, fondatore e CEO di Harvey, ha dichiarato che l’intelligenza artificiale mette a disposizione una serie di sistemi capaci di rilevare e prevenire queste “allucinazioni”. «I nostri sistemi sono stati messi a punto per i casi d’uso legali su enormi insieme di dati legali, il che riduce notevolmente le allucinazioni rispetto ai sistemi esistenti».

Supervisione dei risultati

In ogni caso, Harvey è incappato in alcuni errori, e lo Studio Legale è dovuto ricorrere ad un programma di gestione del rischio collegato alla tecnologia. Commenta Wakeling: «Dobbiamo fornire servizi professionali del livello più alto. Non possiamo permettere che delle allucinazioni contaminino le consulenze legali».

Gli avvocati che utilizzano Harvey si ritrovano davanti ad un elenco di regole per utilizzare correttamente lo strumento. Quella più importante è la supervisione dei risultati. «Bisogna convalidare tutto ciò che esce dal sistema. Va controllato tutto».

Wakeling dice di essere rimasto molto colpito dalle abilità che Harvey ha manifestato in campo di traduzione. Il sistema, infatti, sembra cavarsela bene anche in materia di diritto tradizionale. Nonostante ciò, sembrerebbe avere delle difficoltà quando si deve occupare di nicchie specifiche, ed è qui che manifesta la maggior parte delle allucinazioni.

Ottimismo moderato

Alcuni avvocati hanno parlato con Wired US e hanno dichiarato di essere cautamente ottimisti per quanto riguarda l’integrazione dell’Ai all’interno della loro professione. Per esempio, l’avvocato Sian Ashton sostiene che: «E’ sicuramente una cosa molto interessante, senza dubbio indicativa delle fantastiche innovazioni che stanno avvenendo all’interno del settore legale».

Tuttavia, continua l’avvocato, «si tratta di uno strumento ancora agli albori, e mi chiedo se faccia molto di più che fornire documenti già disponibili in azienda o tramite servizi di abbonamento».

Per Daniel Sereduick, invece, un avvocato di Parigi specializzato nella protezione dei dati personali, l’intelligenza artificiale generativa continuerà ad essere utilizzata soltanto per il lavoro di base. «La stesura di documenti legali può essere un’attività ad alta intensità che l’Ai sembra essere in grado di affrontare abbastanza bene. I contratti, le polizze e gli altri documenti legali tendono ad essere normativi, quindi le capacità dell’Ai di raccogliere e sintetizzare le informazioni possono fare gran parte del lavoro».

Ma i risultati che produce una piattaforma di Ai dovranno essere attentamente esaminati: «Parte dell’esercizio della professione legale consiste nel comprendere le circostanze particolari del cliente, quindi raramente i risultati saranno ottimali».

Leggi anche: La nuova intelligenza artificiale di Microsoft dice cose molto strane

Sereduick dice anche che, se da un lato i risultati dell’Ai dovranno venire monitorati con attenzione, gli input potrebbero risultare altrettanto impegnativi in termini di gestione. «I dati inviati ad un’Ai possono diventare parte del modello dei dati e/o dei dati di addestramento, e ciò violerebbe molto probabilmente gli obblighi di riservatezza nei confronti dei clienti e i diritti di protezione dei dati e della privacy delle persone».

Questo problema è particolarmente sentito in Europa, nel quale l’utilizzo di questa tipologia di Ai potrebbe anche violare i principi del Gdpr, il regolamento che disciplina la quantità dei dati delle persone che le aziende possono raccogliere ed elaborare.

È probabile che all’interno del quadro del Gdpr gli Studi Legali necessitino di una base giuridica solida, al fine di inserire i dati personali dei clienti all’interno di uno strumento di Ai generativa come Harvey, ma anche di contratti che vadano a disciplinare il trattamento di questi dati da parte dei gestori degli strumenti di Ai.

In Europa, l’Ai Act tenta di regolamentare rigorosamente l’utilizzo dell’intelligenza artificiale. In Italia, per esempio, all’inizio di febbraio, il Garante è intervenuto al fine di impedire ad un chatbot, Replika, l’utilizzo dei dati personali degli utenti.

Secondo Wakeling l’intelligenza artificiale, nel suo Studio «farà davvero la differenza in termini di produttività ed efficienza». Piccoli compiti, che di solito rubano minuti preziosi nella giornata dell’avvocato, infatti, potrebbero essere affidati all’Ai.

LEGGI ANCHE:

Com’è andato l’incontro tra i gestori SPID e Agid?

Gli attacchi informatici e i danni sulla salute delle persone

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto