Una concierge meta-umana lavorerà per la PA

Camilla è un prototipo di concierge meta-umana, sviluppata da CSI Piemonte con l’ausilio dell’intelligenza artificiale generativa. Per il momento, Camilla risponde soltanto alle domande su CSI e sulle attività che svolge. Si tratta, comunque, della prima tecnologia sulla quale potrebbero basarsi gli assistenti digitali del futuro per quanto riguarda l’utilizzo dei servizi pubblici digitali.

Dichiara il direttore generale di CSI Piemonte, Pietro Pacini: «Abbiamo suscitato l’interesse di molti nostri consorziati, che hanno fatto richiesta per poterla usare nelle loro strutture. Potrebbe rendere accessibili i servizi ai cittadini 24 su 24, sette giorni su sette».

Con l’avvento dell’IA generativa è possibile rivoluzionare anche la progettazione, l’erogazione e la fruizione dei servizi pubblici digitali. In ogni caso è necessario attendere entro la fine dell’anno l’approvazione dell’AI Act da parte dell’Ue, che conterrà elementi chiave quali libertà, dignità, giustizia, democrazia, uguaglianza e non discriminazione.

Nell’attesa, i riferimenti normativi si rifanno a quelli esistenti, ovvero al Gdpr, le Linee guida di design per i siti e i servizi digitali della Pubblica Amministrazione, con Determinazione n. 224/2022 e il Libro Bianco sull’Intelligenza Artificiale al servizio del cittadino.

Il mondo della PA, inoltre, deve prestare molta attenzione per quanto riguarda l’applicazione dell’IA, visto che non sono in alcun modo consentiti bias o allucinazioni.

Uno degli impieghi possibili dell’IA generativa è l’interazione con i cittadini tramite assistenti virtuali capaci di fornire informazioni e di dialogare. Chiaramente, all’inizio il cliente sarà un esperto del settore, non il cittadino.

Quello che consentirà una concierge come Camilla sarà la gestione più rapida di attività ripetitive, mantenendo dei bassi margini d’errore.

Importante la questione etica. Per Benedetta Giovanola dell’Università della Macerata: «La domanda da cui dovremmo sempre partire riguarda quello che i sistemi di IA che usiamo possono fare per contribuire al bene della collettività. In questo modo potremmo integrare fin dall’inizio i valori etici che devono essere presenti in ogni fase di utilizzo dell’IA».


LEGGI ANCHE:

Ricorso inammissibile: i motivi di appello si trovavano nelle pagine eccedenti

Bando Cassa Forense per premiare i giovani avvocati con votazione più alta

ChatGPT capisce troppe cose di te da quello che scrivi

Il modo in cui ci esprimiamo potrebbe rivelare molti dettagli personali, soprattutto quando interagiamo con chatbot che si basano sull’intelligenza artificiale.

Una recente ricerca ha scoperto che chatbot come ChatGPT sono capaci di ricavare informazioni sensibili dagli utenti, anche da conversazioni che all’apparenza sembrano insignificanti. Il fenomeno è strettamente legato al processo di addestramento degli algoritmi che stanno alla base di questi modelli.

A guidare la ricerca troviamo il professor Martin Vechev, un esperto di informatica del Politecnico di Zurigo in Svizzera. Si è scoperto che i grandi modelli linguistici (Llm) che alimentano questi chatbot sofisticati sono capaci di dedurre in modo accurato moltissime informazioni personali dagli utenti.

Tali informazioni possono riguardare etnia, posizione geografica, occupazione e altro. Chiaramente, la scoperta solleva preoccupazioni circa la possibilità che truffatori colgano la palla al balzo per raccogliere i dati degli utenti. Inoltre, le aziende potrebbero utilizzare queste informazioni per creare profili dettagliati, aprendo la strada a una nuova era della pubblicità personalizzata.

Il team di ricerca di Zurigo ha condotto test utilizzando modelli linguistici sviluppati da aziende come OpenAI, Google, Meta e Anthropic. A quanto pare, questi modelli sono in grado di dedurre informazioni sensibili con una precisione sorprendente, in una percentuale compresa tra l’85 e il 95%.

A dimostrazione di ciò sono state utilizzate conversazioni pubbliche su Reddit in cui gli utenti avevano condiviso dettagli personali: ad esempio, si è scoperta l’età di un utente basandosi sulle sue tradizioni culturali.

Quello che rende questa scoperta ancora più inquietante è che i modelli linguistici di grandi dimensioni sono addestrati su enormi quantità di dati raccolti dal web, che spesso contengono informazioni personali oltre a conversazioni che potrebbero essere utilizzate per scopi malevoli.

Questi chatbot potrebbero dedurre la posizione geografica di un utente basandosi esclusivamente sul mezzo di trasporto menzionato in una conversazione, e addirittura dedurre da indizi più sottili dettagli come città, sesso, età ed etnia con notevole precisione.

Gli esperti affermano che i modelli linguistici non sono stati specificamente progettati per estrarre dati personali, ma questa capacità è fondamentale per il loro funzionamento. Anche se alcune aziende cercano di eliminare le informazioni personali dai dati di addestramento o impedire che i modelli le includano nei risultati, questo problema potrebbe essere difficile da risolvere a causa della natura statistica delle correlazioni su cui si basano questi modelli.

Il professor Taylor Berg-Kirkpatrick dell’University of California San Diego ritiene che il vero punto sorprendente sia la precisione con cui i modelli linguistici sono in grado di estrarre informazioni personali. Tuttavia, suggerisce che sia possibile utilizzare un altro modello di apprendimento automatico per oscurare i dati personali nei testi, una tecnica precedentemente sviluppata dal suo gruppo.

La ricerca mette in luce le preoccupazioni relative alla privacy che derivano dall’uso di chatbot basati sull’intelligenza artificiale. Mentre alcune aziende cercano di affrontare il problema, la capacità dei modelli linguistici di estrarre dati personali potrebbe diventare una sfida perenne per la protezione della privacy online.


LEGGI ANCHE:

Arriva l’Euro Digitale: è la fine del contante?

Cassazione: Sì a separazione e divorzio insieme

Giornata mondiale della posta: ecco come scrivere mail con l’IA

Il 9 ottobre è la Giornata mondiale della posta, che ricorda l’istituzione dell’Unione postale universale che avvenne il 9 ottobre 1874, in Svizzera.

Nel 1969 fu istituito il World Post Day. Proprio in quegli anni si cominciava a pensare ad una nuova tipologia di posta. Nel 1965, alcuni ricercatori al Mit di Boston avevano sviluppato, per gli studenti universitari, un sistema di mailbox e nel 1971 il pioniere di Arpanet Ray Tomlinson perfezionò il protocollo.

Tomlinson cominciò a mettere in contatto vari atenei e scelse la chiocciola come collegamento tra il nome utente e la mail di destinazione. Inviare mail oggi è molto semplice, e l’intelligenza artificiale potrebbe correre in nostro soccorso per poterle scrivere, riassumendo concetti e impostando risposte automatiche.

Per esempio, si potrebbe utilizzare l’estensione ChatGPT Writer, che compone mail e aiuta gli utenti a scrivere testi, correggere errori grammaticali, cambiare tono della mail o parafrasare blocchi di testo che sono già stati scritti.

AI Mails, invece, è stato progettato per Gmail, al fine di generare delle risposte personalizzate e professionali, con un occhio di riguardo alla privacy, visto che i dati restano crittografati.

Con Merlin, invece, è possibile andare oltre: l’utente potrà selezionare un contenuto da pagina web e decidere in che modo rielaborarlo. Merlin consente di creare delle risposte basandosi sul contenuto selezionato, accorciandolo, sintetizzandolo, modificandone il tono e molto altro.

ChatSonic è un’altra estensione per Chrome, dedicata a Gmail, in grado di sintetizzare mail e impostare risposte automatiche. L’estensione è gratuita sino a 10mila parole al mese.

A proposito di mail: Google ha dichiarato che l’anno prossimo arriveranno alcune novità che renderanno più sicuro Gmail. La piattaforma ridurrà infatti la pubblicità indesiderata. Dal 2024, infatti, chi invierà mail ad almeno 5mila indirizzi differenti in una giornata avrà l’obbligo di inserire l’opzione di scelta per i destinatari di cancellare o meno la propria iscrizione.


LEGGI ANCHE:

A Milano un evento per diffondere la cultura Pro Bono in Italia

Registro Titolari effettivi: si parte dal 10 ottobre

Linee guida per l’utilizzo di strumenti di Intelligenza Artificiale da parte degli Avvocati

Da tempo si discute circa l’impatto dell’Intelligenza Artificiale in campo legale, soprattutto dopo l’introduzione di ChatGPT di OpenAI.

La maggior parte dei chatbot di intelligenza artificiale sono generici, anche se cominciano già a prendere piede sistemi di intelligenza artificiale generativa specializzati, progettati dunque per la semplificazione dei compiti dei professionisti.

In questo contesto troviamo l’azione della FBE, la Commissione Nuove Tecnologie, Fédération des Barreaux d’Europe, che punta ad aiutare gli avvocati presenti in Europa a comprendere meglio il funzionamento degli strumenti di intelligenza artificiale generativa, per poterli utilizzare in maniera responsabile, nel pieno rispetto dei principi della professione legale.

Il rapporto pubblicato dalla FBE conteneva le seguenti linee guida:

  1. Comprendere l’IA generativa;
  2. Riconoscere le limitazioni e il contesto;
  3. Rispettare le regole esistenti sull’uso della IA;
  4. Integrare la competenza giuridica;
  5. Rispettare il segreto professionale;
  6. Garantire la protezione dei dati personali e della privacy;
  7. Informare il cliente e assumersi la responsabilità

Clicca qui sopra per leggere le linee guida 🙂

Tali linee guida, seppur non esaustive, sono un valido aiuto per mantenere gli standard etici e per proteggere la riservatezza del cliente.

La GenAI, l’intelligenza artificiale generativa, indica quei sistemi di intelligenza artificiale che generano testi, immagini e altri media a seguito di una richiesta. La GenAI si basa sui modelli linguistici di grandi dimensioni, LLM, che generano output simili al linguaggio umano, anche se la loro funzione principale resta quella di prevedere quale sarà la parola successiva in una stringa di testo.

Comprendere la tecnologia e familiarizzare con il suo funzionamento è un ottimo punto di partenza per poter decidere in che modo sfruttarla nella professione. Gli avvocati, nello specifico, vengono sollecitati a prestare attenzione non soltanto ai bias dell’apprendimento automatico, ma anche alle allucinazioni, ovvero alla creazione di contenuti che non rispecchiano in alcun modo la realtà.

Leggi anche: Le intelligenze artificiali hanno le allucinazioni?

Questi strumenti potrebbero anche migliorare determinati aspetti della professione, ma dobbiamo ricordare che i contenuti potrebbero non venire sempre aggiornati. Resta, dunque, la necessità di verificare e controllare i vari output.

Gli avvocati europei dovranno conoscere e rispettare le varie norme esistenti, che vanno a disciplinare l’utilizzo dell’intelligenza artificiale e restare sempre aggiornati circa il Regolamento sull’Intelligenza artificiale dell’UE, ora in fase di approvazione.

Probabilmente, l’indicazione che più merita attenzione è la numero 4. La GenAI, infatti, dovrebbe andare ad integrare le competenze legali, e non sostituirle. La tecnologia è uno strumento di semplificazione del lavoro, visto che non è in alcun modo capace di sostituire il giudizio o la capacità critica del professionista.

Resta di cruciale importanza il rispetto del segreto professionale, e dunque anche l’importanza della salvaguardia dei dati personali. Gli strumenti di GenAI utilizzati dagli avvocati, dunque, dovranno sempre rispettare il GDPR.

L’ultimo punto, invece, parla della comunicazione ai clienti circa l’utilizzo degli strumenti di GenAI negli Studi Legali. Gli avvocati dovranno spiegare lo scopo, i vantaggi, le limitazioni e le garanzie di questo strumento.

Per la FBE, il rapporto in questione non è soltanto utile, «ma anche un catalizzatore per iniziative volte a sensibilizzare gli avvocati sull’uso responsabile dell’intelligenza artificiale generativa».

Hai mai dato un’occhiata ai prodotti Servicematica?

Per esempio, acquistando Service1 avrai la possibilità di accedere alla tua agenda fascicoli, alle scadenze termini e alle tue udienze anche da smartphone grazie a Giustizia Servicematica e all’integrazione col PDA. Clicca qui per dare un’occhiata!


LEGGI ANCHE:

I Social Network diventeranno a pagamento

Cooperativa tra avvocati: quali sono i vantaggi?

AI generativa negli studi legali

Mondo legale e utilizzo di strumenti di intelligenza artificiale: facciamo il punto

Gli strumenti di intelligenza artificiale generativa promettono di trasformare la maggior parte del lavoro quotidiano degli avvocati, nonostante le preoccupazioni riguardo le fughe dati.

In mezzo ad una raffica di aggiornamenti e di nuovi lanci, gli studi legali sembrano essere molto indecisi sull’utilizzo di tali strumenti, anche se aziende big-tech e fornitori di servizi sulle innovazioni affermano di essere in grado di trasformare la professione legale.

Ma com’è messo veramente il mondo legale per quanto riguarda l’utilizzo di strumenti di intelligenza artificiale?

Uno studio legale con sede nella Silicon Valley, Gunderson Dettmer, ha presentato uno strumento dedicato agli avvocati, utile per fornire accordi legali nelle interrogazioni. Lo studio legale Sullivan & Cromwell di New York, invece, promuove e sviluppa strumenti da vendere ad altri studi legali, finalizzati all’aiuto nell’esaminazione dei documenti e per condurre deposizioni.

OpenAI, alla rivoluzione con ChatGPT, ha lanciato un sistema aggiornato per i suoi clienti aziendali, affrontando la paura degli avvocati di perdere i dati dei clienti. Invece, Thomson Reuters, azienda di dati e media legali, ha ufficialmente acquisito Casetext, azienda nota per gli strumenti che si basano sull’IA, per 650 milioni di dollari.

I nuovi strumenti consentono di affrontare alcuni tipi di attività, almeno quelle maggiormente laboriose, con più velocità e facilità. Per esempio, possono confrontare e analizzare i contratti per ricercare le clausole chiave, riassumendo regole di conformità e riscrivendo le norme complesse in un linguaggio comprensibile.

In molti si aspettano, grazie a questo potenziale risparmio di tempo, che il mondo legale si trasformi, eliminando gran parte del lavoro degli avvocati. Secondo Thomson Reuters, l’obiettivo è quello di fornire un prodotto per la redazione legale, che possa essere collegato alla funzione assistente di Microsoft, per essere venduto entro la fine dell’anno.

Leggi anche: Legal Design: comunicare concetti complessi in maniera semplice

Visto il turbinio di lanci e di aggiornamenti dei sistemi, tanti studi legali sono titubanti sul come e sul quando imbarcarsi nel mondo dell’IA.

Quando è stato reso disponibile ChatGPT per la prima volta, in molti hanno cominciato a soffrire della FOMO (Fear of Missing Out), ovvero la paura e l’ansia sociale di venire esclusi da eventi e da esperienze. Tuttavia, dopo un gran entusiasmo iniziale, sono arrivate le preoccupazioni riguardo le fughe dati.

Gli Studi Legali non vogliono, infatti, che i loro prompt vengano in qualche modo catturati da estranei.

Leggi anche: Intelligenza Artificiale: cosa rischiano gli Avvocati?

Microsoft avrebbe addebitato più di 50.000 dollari ad ognuna delle 600 imprese invitate alla partecipazione della prova del suo assistente di intelligenza artificiale AI Copilot, che verrà venduto con un abbonamento di 30 dollari al mese.

Per esempio, l’ufficio legale interno della McKinsey & Company dovrà scegliere tra «costruire, acquistare o collaborare» al fine di sviluppare strumenti di intelligenza artificiale generativa.

Thomas Pfennig, invece, responsabile dei dati e della privacy della multinazionale Bayer ha già utilizzato l’intelligenza artificiale generativa per l’automatizzazione dei compiti legali ripetitivi con poco valore, per riuscire a ridurre significativamente i costi del lavoro.

Afferma Pfennig: «Un passo che abbiamo fatto è preparare l’organizzazione a un cambiamento operativo significativo, passando da interazioni basate sull’uomo a interazioni più tecnologiche».


LEGGI ANCHE:

Arriva iPhone 15: dobbiamo fare l’upgrade?

Autovelox illegittimi: ecco la sentenza della Cassazione

inquinamento intelligenza artificiale

Quanto inquina l’intelligenza artificiale?

Una delle contraddizioni poco esplorate in tema di intelligenza artificiale riguarda l’impronta ambientale e l’impatto energetico di questo tipo di tecnologia.

Ma quali sono gli elementi da prendere in considerazione per riuscire a valutare la situazione?

Certamente, l’energia che viene utilizzata per mettere in moto tutto il sistema è strettamente connessa alla potenza dell’hardware. La stessa quantità di energia viene poi utilizzata al fine di educare l’algoritmo o per alimentare i data server.

Lo sviluppo dell’intelligenza artificiale generativa, quella che troviamo alla base di ChatGPT, ha bisogno di una grandissima potenza di calcolo. Dobbiamo tenere conto che l’intelligenza artificiale generativa usa alcune architetture che si basano su delle reti neurali, quindi prevede tantissimi parametri che dovranno essere in qualche modo addestrati.

In questa fase di addestramento, il consumo di energia è ai massimi livelli, visto che all’algoritmo dovranno essere forniti tantissimi esempi affinché possa apprendere.

È noto che l’industria ITC abbia generato delle emissioni di carbonio pari a quelle emesse dal sistema di aviazione. Sappiamo bene, inoltre, che l’utilizzo di acqua fredda per raffreddare i data center e l’utilizzo di metalli rari per la costruzione dei componenti degli hardware rendono le nuove tecnologie non così green.

Alcune ricerche testimoniano come i data center cinesi vengano alimentati per il 73% da elettricità generata da carbone. Tutto questo rende evidente come la fonte energetica abbia un peso importante sull’impronta ecologica complessiva della tecnologia digitale.

È stato calcolato il consumo per l’addestramento di ChatGPT-3, ovvero 700.000 litri di acqua soltanto per raffreddare i server. Si pensi che scambiare 20 messaggi con ChatGPT equivale al consumo di mezzo litro d’acqua.

Leggi anche: ChatGPT e lo scenario Terminator: le IA uccideranno il lavoro dell’avvocato?

Visto che l’intelligenza artificiale sta gradualmente diventando sempre più importante per lo svolgimento delle nostre attività, misurare l’impatto ambientale di tali meccanismi diviene fondamentale.

L’intelligenza artificiale, senza dubbio, comporta parecchi vantaggi, anche a livello ambientale. Per esempio, questo strumento può essere utilizzato nel settore petrolifero, migliorandone la sicurezza e le prestazioni operative, fornendo anche modelli di tipo predittivo.

Tuttavia si corre il rischio di andare incontro a contraddizioni, visto che l’intelligenza artificiale, nonostante i potenziali scopi positivi, diventa una lama a doppio taglio in assenza di una corretta valutazione dell’impronta ecologica e del reale fabbisogno energetico.


LEGGI ANCHE:

A che punto siamo con l’identità digitale delle persone giuridiche?

Sospensione per l’avvocato che non paga debiti verso terzi

ernie bot intelligenza artificiale cinese

Intelligenza artificiale: ecco Ernie Bot, il rivale cinese di ChatGpt

Baidu, il principale motore di ricerca cinese, paragonabile a Google, ha lanciato Ernie Bot, ovvero la risposta cinese a ChatGpt. Tutto questo rappresenta un gran passo in avanti per il settore tecnologico cinese.

Ernie Bot è la primissima app di Intelligenza Artificiale domestica disponibile in Cina e non all’estero. Afferma Baidu in una nota: «Siamo entusiasti di poter condividere che Ernie Bot è ora completamente pronta per il pubblico a partire dal 31 agosto».

Pechino, ad agosto, ha deciso di introdurre delle nuove norme per gli sviluppatori di IA, con lo scopo di aiutarli a tenere il passo con rivali quali OpenAi e Microsoft, pur mantenendo una stretta sulle informazioni online.

Leggiamo ancora nella nota: «Oltre a Ernie Bot, Baidu lancerà una suite di nuove app native per l’intelligenza artificiale che consentiranno agli utenti di sperimentare appieno le quattro capacità principali dell’intelligenza artificiale generativa: comprensione, generazione, ragionamento e memoria».

Leggi anche: GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale

Baidu, rendendo Ernie Bot disponibile, consentirà di ottenere un gran ritorno di pareri, per riuscire a migliorare l’app velocemente.

Le app che si basano sull’intelligenza artificiale generativa si basano su grandi quantità di dati, e sulle varie interazioni con gli utenti, affinché questi possano rispondere a qualsiasi tipo di domanda con un linguaggio simile a quello umano.

Il successo che ha avuto ChatGpt, vietato in Cina, ha comportato una vera e propria corsa allo sviluppo di app rivali, così come un allarme diffuso su potenziali abusi e disinformazioni.

Secondo le linee guida recenti, tutte le app cinesi di intelligenza artificiale generativa dovranno «aderire ai valori fondamentali del socialismo», evitando di minacciare la sicurezza nazionale e soprattutto evitando di promuovere terrorismo, odio etnico e violenza.


LEGGI ANCHE:

Sanzione per l’avvocato-mediatore se non separa la sede dell’organismo dallo studio

Ocf, atti processo civile: le regole in vigore dal 1° settembre vanno riviste

L’intelligenza artificiale che indovina le password attraverso il suono dei tasti

L’intelligenza artificiale è in grado di sottrarre password agli utenti ascoltando semplicemente ciò che digitano sulla propria tastiera. Questo è quanto dimostrato dai ricercatori della Cornell University, che recentemente hanno svolto un esperimento particolare.

Infatti, dopo l’addestramento di un’intelligenza artificiale al riconoscimento del suono riprodotto dai tasti premuti, questa sarebbe stata utilizzata con il fine di riconoscere le sequenze digitate sulla tastiera di un pc, per scoprire che l’IA era capace di identificare le parole con una precisione del 95%.

Per riuscire ad indagare quali fossero i limiti dell’intelligenza artificiale, i ricercatori hanno deciso di testarne la precisione anche nel corso di una videocall sulla piattaforma Zoom, registrando le sequenze dei tasti attraverso il microfono del pc.

In questo caso, il modello ha avuto una precisione per quanto riguarda le parole digitate sulla tastiera del 93%, ovvero una percentuale un po’ più bassa rispetto alla precedente.

Tutto ciò non dipende dall’eccessivo rumore prodotto dalla tastiera meccanica. Secondo quanto riferito dai ricercatori, il modello di intelligenza artificiale in questione è stato addestrato per riuscire a riconoscere la forma d’onda, ovvero il livello di pressione sonora prodotto da un segnale, il tempo e l’intensità di ogni battitura, al fine di identificare i tasti che compongono una sequenza.

Dunque, se premiamo un tasto con una frazione di ritardo di una frazione di secondo rispetto ad altri a causa del proprio stile di battitura, allora l’IA lo riconoscerà. Uno strumento del genere, comunque, consente ai malintenzionati di accedere facilmente a password, messaggi, discussioni o altre informazioni sensibili.

Ma come possiamo difenderci dagli hacker che tentano di ricorrere a questi strumenti per rubare i nostri dati sensibili? Prima di tutto, dovremmo evitare di digitare le nostre password attraverso Touch Id e Windows Hello.

Inoltre, si potrebbe pensare di ricorrere ad un buon gestore di password, al fine di assicurarsi di mettere in sicurezza i dati di accesso su tutti gli account.

Cerchi un modo per mettere in sicurezza il pc?

Dai un’occhiata ai prodotti Servicematica per trovare il prodotto adatto alle tue esigenze, basta cliccare qui sopra!


LEGGI ANCHE:

Riforma fiscale: fondamentale il contributo dei professionisti

Sanità digitale: dati e servizi in cloud per migliorare i servizi pubblici

intelligenza artificiale rischi lavoro

Qual è il vero rischio dell’Intelligenza Artificiale?

Quando parliamo di intelligenza artificiale e lavoro, le posizioni principali sono due: cancellerà tantissimi posti di lavoro oppure ci libererà da quelle mansioni troppo faticose e ripetitive, per permetterci di dedicarci completamente a compiti considerati più gratificanti e creativi.

Ovviamente, si tratta di due situazioni estreme, che non si verificheranno mai, almeno non in questo modo. In primo luogo, come è sempre avvenuto con le innovazioni tecnologiche, la cancellazione di alcuni posti di lavoro viene sempre compensata dalla nascita di nuove occupazioni.

Se dovessimo concentrarci soltanto sul primo scenario, ovvero in quello in cui vengono cancellati tantissimi posti di lavoro, dovremmo comunque fare affidamento su quanto accaduto nel passato.

L’automazione ha sicuramente compromesso l’occupazione degli operai, vista la diminuzione del loro numero e del loro potere d’acquisto. Le tecnologie digitali, poi, hanno generato un nuovo fenomeno, creando tantissimi nuovi posti di lavoro e ridefinendo l’intero mondo che ci circonda.

Per alcuni studiosi, tutto questo ha portato alla scomparsa della classe media e al fallimento delle politiche di redistribuzione della ricchezza. Dunque, sembra che ci siano meno persone che si arricchiscono, e quelle che lo fanno lo fanno molto, ma sempre più persone che si impoveriscono.

Con l’utilizzo sempre più diffuso degli strumenti di intelligenza artificiale nel mondo del lavoro, il rischio è che questi fenomeni finiscano per peggiorare, al posto di migliorare.

Leggi anche: Intelligenza Artificiale: cosa rischiano gli Avvocati?

Ci sono sempre più mansioni ufficio che, grazie all’ai, diventeranno molto più semplici: questo non significa che sia un vantaggio. Più un lavoro risulta difficile e raro, maggiore sarà la sua retribuzione. Se l’intelligenza artificiale consentirà a tutti di acquisire competenze attraverso comandi ai pc, anche i lavori più retribuiti vedranno una flessione per quanto riguarda il salario o il potere d’acquisto.

David Autor, economista e professore del Mit di Boston, si dice «preoccupato per il cambio di composizione nei posti di lavoro. C’è il rischio che l’intelligenza artificiale elimini alcuni lavori o ne dequalifichi altri della classe media, generando lavori meno remunerativi. Il pericolo insomma è: l’intelligenza artificiale ridurrà il valore di molte competenze e renderà il lavoro più mercificato?».

Per Mark Muro di Brookings, il rischio «è che i lavoratori altamente qualificati siano vulnerabili all’IA tanto quanto le loro controparti meno qualificate».

Leggi anche: GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale

L’intelligenza artificiale verrà utilizzata principalmente al fine di aumentare la produttività delle imprese, aumentando i ricavi, ma diminuendo i costi. Le maggiori entrate, secondo un gruppo di consulenti della Casa Bianca, «andranno agli azionisti e non agli stipendi dei magazzinieri».

Per Lawrence Katz, un economista della Harvard University, una delle soluzioni possibili è che le aziende che andranno ad aumentare la propria produttività grazie all’ia condividano i benefici economici con i lavoratori.


LEGGI ANCHE:

Attenzione alle truffe bancarie: ecco come difendersi

Molestie o disturbo alla persona: il reato avviene anche con la posta elettronica

capire se testo è stato scritto da AI

Come capire se un testo è stato scritto da un’Intelligenza Artificiale?

Nel corso degli ultimi anni, modelli di linguaggio di intelligenza artificiale quali ChatGPT, Bard e Claude hanno fatto dei grandissimi passi da gigante nell’elaborare testi credibili e coerenti. Per un occhio inesperto, infatti, potrebbe essere quasi impossibile distinguere se un contenuto è stato scritto da un umano o da un’intelligenza artificiale.

Ma ci sono alcuni strumenti e alcune tecniche che potrebbero aiutarci a capirlo.

In genere, i modelli di AI vengono addestrati attraverso dati testuali creati dagli esseri umani, generando poi dei contenuti in grado di imitare quelli prodotti dagli umani.

Si tratta di una mole di dati pazzesca, che consente all’AI di raggiungere un certo grado di fluidità e di naturalezza. Tuttavia, grazie ad un’attenta analisi, sarà possibile individuare alcune tipiche caratteristiche dei testi generati dalle AI.

Per prima cosa, prestiamo attenzione al lessico: ChatGPT, Bard e Claude hanno un vocabolario ripetitivo e limitato, e alcuni temi sono ossessivamente ricorrenti. È difficile che in un testo generato da un’intelligenza artificiale ci siano sfumature, espressioni colloquiali o doppi sensi.

Attenzione anche alla sintassi: le frasi generate dall’intelligenza artificiale hanno una struttura più semplice, non c’è traccia della naturale imprevedibilità e complessità che contraddistingue il modo di parlare umano.

Nei testi generati dall’AI, inoltre, manca la creatività e la brillantezza delle idee originali, che vengono espresse anche con lunghi e imperfetti giri di parole, ma piacevoli alla lettura.

Un altro campanello d’allarme è l’assenza di errori di battitura e grammaticali. Questi testi sembrano quasi perfetti, soprattutto in lingua inglese. Quelli umani, invece, hanno delle imperfezioni. Secondo il linguista Noam Chomsky «tali programmi sono bloccati in fase preumana o non umana dell’evoluzione cognitiva. La vera intelligenza si dimostra nella capacità di pensare ed esprimere cose improbabili ma perspicaci».

In ogni caso, nonostante le indicazioni, riuscire a smascherare un testo generato da un’AI potrebbe essere veramente difficile anche per i più esperti, e per questo i ricercatori di tutto il mondo, stanno attualmente lavorando a nuovi strumenti automatici per il rilevamento dei testi creati dall’intelligenza artificiale.

Creatività, coscienza ed empatia

In ogni caso, Tom Goldstein, un docente di informatica presso l’Università del Maryland, è fermamente convinto che tali tool diverranno sempre meno efficaci, visto che l’elaborazione del linguaggio naturale diventerà sempre più sofisticata.

«Questi tipi di rilevatori si basano sul fatto che esistono differenze sistematiche tra testo umano e testo macchina. Ma l’obiettivo di queste aziende è quello di rendere il testo macchina il più vicino possibile al testo umano», spiega.

Dunque, ad oggi non esiste un metodo infallibile per riuscire a determinare con certezza assoluta se un testo proviene da un’AI o da una mano umana. Di certo, per quanto possa progredire la tecnologia, la creatività, la coscienza e l’empatia restano ancora oggi elementi caratteristici degli umani.


LEGGI ANCHE:

Autorizzata la presentazione alle Camere del ddl Nordio

Avvocato e odontoiatra: per il CNF l’iscrizione ai due albi è incompatibile

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto