talk to the future week milano

Ordine degli Avvocati di Milano: cinque giornate per parlare di intelligenza artificiale e diritti

Cinque giorni a Milano per parlare di Intelligenza Artificiale e di Diritti.

Dal 10 al 14 luglio si terranno incontri e dibattiti circa il futuro dell’avvocatura e del sistema giustizia in generale, partendo da un tema attuale, ovvero l’utilizzo dell’intelligenza artificiale.

L’iniziativa si chiama Talk to the future week, ed è stata organizzata dall’Ordine degli Avvocati di Milano, con il patrocinio del Ministero della Giustizia, CNF, OCF e Corecom Lombardia.

Dieci gli approfondimenti sul futuro della professione forense. Gli eventi spazieranno dall’intelligenza artificiale in ambito legale alla tutela dei diritti di tutti i cittadini. Nello specifico, saranno presenti giuristi ed esperti di tecnologie, che parleranno del rapporto tra le intelligenze artificiali e le decisioni umane, del volto umano della tecnologia, di etica dell’IA e del suo ruolo nel superare le diseguaglianze.

Un’occasione anche per conoscere tutte le novità in materia di PCT e di PPT. Interessanti anche i dibattiti sul primo Tribunale nativo digitale e sul Tribunale unificato dei Brevetti. Presenti più di sessanta relatori, tra cui esponenti di istituzioni nazionali, accademici, avvocati e professionisti del settore dell’IA applicata al mondo della giustizia e della società.

Leggi anche: Nasce Simpliciter.ai, una versione di ChatGPT per Avvocati

Commenta Antonino La Lumia, presidente del Coa di Milano: «Talk to the future week vuole segnare un nuovo passo, tracciando un sentiero che risponda alla vocazione della nostra città come apripista per l’innovazione. La nostra iniziativa diventerà un appuntamento annuale dell’Ordine degli avvocati di Milano. Pensiamo sia necessario diffondere la cultura dell’innovazione, perché le nuove opportunità tecnologiche non siano un privilegio di alcuni, ma un patrimonio di tutti. Con il futuro non dobbiamo arrivare alla resa dei conti, ma dialogare. Dunque al futuro, che è già oggi, diciamo: parliamone».

Il presidente del Cnf Francesco Greco ha sottolineato l’approccio dell’avvocatura rispetto ai cambiamenti in atto. «E’ già in corso da tempo un confronto tra tutte le componenti dell’avvocatura sulla modernizzazione della professione sulle attuali e future esigenze quotidiane degli avvocati italiani».

«Parlando del futuro prossimo non si possono sottovalutare le novità offerte dai sistemi sempre più avanzati nel campo dell’intelligenza artificiale. Una sfida sicuramente complessa, ma che già oggi, con l’approvazione da parte dell’Europa dell’AI Act, che regolerà l’intelligenza artificiale nel rispetto dei diritti individuali, dobbiamo imparare a gestire dedicando anche risorse ed energie».

Leggi anche: Intelligenza Artificiale: cosa rischiano gli Avvocati?

Si dice ottimista anche Mario Scialla, coordinatore di Ocf. «Sono convinto che la politica forense debba saper guardare e diffonderne la cultura. Superare le diffidenze, approfondire i temi, coinvolgere tutte le colleghe e i colleghi: questo credo sia il nostro compito ed è ciò che faremo. L’iniziativa dell’Ordine di Milano, che abbiamo accettato con convinzione di patrocinare, va proprio in questa direzione».

Marianna Sala, presidente Corecom Lombardia, pensa che Talk to the future week possa consentire agli addetti ai lavori di contestualizzare meglio l’applicazione dell’IA soprattutto nella quotidianità. «Di intelligenza artificiale si parla tanto, ma spesso manca un quadro esaustivo sul fenomeno. Tutti facciamo uso di sistemi di IA».

«Basti pensare», prosegue, «agli strumenti vocali dei nostri smartphone o dei sistemi di sicurezza. Ecco perché è importante che le istituzioni siano a fianco dei cittadini in questa delicata fase dell’evoluzione tecnologica, affinché si presti attenzione ai vantaggi ma anche ai rischi che possono presentarsi, come quello della disinformazione».


LEGGI ANCHE:

Arriva la certificazione per le aziende family-friendly: un modo per combattere la crisi demografica

Caso Delmastro: per il Ministero della Giustizia l’imputazione coatta è da riformare

fake news ChatGPT

Fake news: se le scrive ChatGPT siamo più propensi a crederci

La disinformazione che viene generata dall’intelligenza artificiale potrebbe essere maggiormente convincente rispetto a quella che viene scritta dagli esseri umani. Questo è quanto rilevato da una ricerca dell’Università di Zurigo, successivamente pubblicata su Science Advances.

Secondo lo studio, le persone hanno circa il 3% in meno di probabilità di individuare i post falsi generati da un’intelligenza artificiale, rispetto a quelli scritti da una mano umana. Tale divario di credibilità, per quanto possa essere piccolo, risulta preoccupante, se consideriamo che il problema della disinformazione che viene generata dall’intelligenza artificiale sembra crescere sempre più.

Afferma Giovanni Spitale, il ricercatore a capo dello studio: «Il fatto che la disinformazione generata dall’AI sia non solo più economica e veloce, ma anche più efficace, fa venire gli incubi».

Al fine di testare la suscettibilità umana a varie tipologie di testo, i ricercatori hanno scelto degli argomenti “famosi” di disinformazione, come il Covid e il cambiamento climatico. Successivamente hanno richiesto a ChatGPT-3 di generare 10 tweet veri e 10 fake.

Successivamente hanno reclutato 697 persone per poter completare un quiz online, in cui dovevano stabilire se i tweet erano stati generati dall’intelligenza artificiale oppure scritti da utenti reali di Twitter, e se erano veri o se contenevano fake news.

Quello che hanno scoperto è che i partecipanti avevano il 3% di probabilità in meno di credere ai tweet fake scritti da esseri umani rispetto a quelli scritti da ChatGPT. Anche se i ricercatori non sanno perché le persone sono maggiormente propense a credere ai tweet generati dall’AI, per Spitale, «il testo di GPT-3 tende ad essere un po’ più strutturato rispetto al testo scritto dall’uomo. Ma è anche condensato, quindi è più facile da elaborare».

Leggi anche: Nasce Simpliciter.ai, una versione di ChatGPT per Avvocati

Il boom dell’intelligenza artificiale generativa mette a disposizione strumenti accessibili e potenti nelle mani di tutti, anche, purtroppo, nelle mani dei malintenzionati.

Modelli simili a ChatGPT potrebbero generare dei testi errati, che sembrano convincenti, e che potrebbero generare delle narrazioni false in maniera rapida ed economica per eventuali campagne di disinformazione.

Per combattere il problema, ci sono strumenti che rilevano se i testi sono stati scritti da un’intelligenza artificiale: ma sono ancora in fase di sviluppo, e non risultano essere poi così accurati.

OpenAI è ben consapevole che gli strumenti di IA potrebbero essere utilizzati in quanto armi di produzione per campagne di disinformazione su larga scala. Per questo motivo l’azienda ha deciso di diffondere un rapporto in cui avverte come sia «impossibile garantire che i modelli linguistici di grandi dimensioni non siano praticamente mai utilizzati per poter generare disinformazione».


LEGGI ANCHE:

La guerra dei chip si fa sempre più dura: ecco che cosa sta succedendo in Cina

Concorso per la selezione di 8 avvocati dello Stato

aziende vietano ChatGPT

ChatGPT: perché le aziende stanno vietando ai dipendenti di utilizzarlo?

ChatGPT sta lentamente diventando l’assistente virtuale preferito di aziende e di privati. Lo strumento di OpenAI è un punto di riferimento per molti professionisti, ma ora sta sollevando parecchie polemiche per quanto riguarda i suoi rischi.

Sotto la superficie, infatti, si nascondono tanti pericoli, alcuni molto chiari alle aziende che operano nel settore tech. Forse sarebbe meglio individuarli, per capire perché le aziende vietano l’utilizzo di ChatGPT ai propri dipendenti.

ChatGPT, sin dal suo debutto, è riconosciuto tra i lavoratori come un perfetto aiutante per la ricerca delle informazioni, nella scrittura di testi, nella programmazione e in molto altro.

Si tratta dell’assistente numero uno per tantissime persone, un asso nella manica che viene utilizzato con il fine di velocizzare alcune attività, ottenendo risultati convincenti nel giro di poco tempo.

Tuttavia, la gioia di terminare il lavoro in anticipo ha messo in secondo piano la necessità di prestare attenzione alle informazioni condivise con il chatbot. ChatGPT, infatti, non è una scatola chiusa nella quale condividere dati a proprio piacere, convincendosi che al termine della conversazione tali dati verranno eliminati.

OpenAI, al contrario, continua con il monitoraggio delle Chat dietro le quinte, andando a raccogliere qualsiasi elemento che aiuti il modello di linguaggio GPT a migliorare.

Dunque, dovrebbe essere scontato che il trasferimento dei dati che riguardano il lavoro ad un sistema di IA di terze parti potrebbe minacciare la privacy e la sicurezza. Ma non per tutti questo è ovvio.

Leggi anche: Nasce Simpliciter.ai, una versione di ChatGPT per Avvocati

I dipendenti delle aziende, anche di colossi quali Amazon ed Apple, stanno facendo affidamento sul chatbot senza considerare la diffusione delle informazioni riservate dei dipendenti sui server chiusi e controllati da parti terze.

Alcuni amministratori potrebbero infatti essere interessati ad alcuni codici o a minacciare la società andando a richiedere una somma importante di denaro al fine di cancellare i dati oppure bloccarne la fuga.

Nel caso di OpenAI, vista la fama di ChatGPT, sicuramente tutto questo non avverrà. Tuttavia, in generale, il problema rimane: i dati sensibili forniti finiranno all’interno dei server.

I colossi di vari settori hanno deciso di imporre un blocco generale, dichiarando pubblicamente l’intenzione di dar vita ad un assistente di intelligenza artificiale proprietario, in modo tale che i dipendenti possano poi lavorare con server interni, proteggendo i dati.

Leggi anche: ChatGPT e lo scenario Terminator: le IA uccideranno il lavoro dell’avvocato?

Tutto il mondo sta guardando con interesse e paura le capacità dell’intelligenza artificiale. Le IA generative, ormai, stanno crescendo sempre più, e oggi sono a piede libero. La soluzione potrebbe essere l’accoglienza, per semplificare e ottimizzare le attività, visto che la loro condanna non giova proprio a nessuno.

E’ necessario, comunque, implementarle correttamente educando il pubblico, affinché non rappresentino una minaccia per gli utenti ma un valido aiuto.


LEGGI ANCHE:

In vigore il Nuovo Codice degli Appalti: il problema della qualificazione delle stazioni appaltanti

Nuovo accordo per la ricerca telematica dei beni da pignorare

Simpliciter.ai

Nasce Simpliciter.ai, una versione di ChatGPT per Avvocati

Una delle critiche che solitamente si fa a ChatGPT è la sua tendenza nel generare delle citazioni che non esistono, così come norme inesatte, che potrebbero compromettere l’accuratezza delle risposte che fornisce il sistema (si tratta del fenomeno delle allucinazioni).

ChatGPT, infatti, è una versione base di un modello linguistico che possiede caratteristiche utili per più persone possibili, che non ha accesso in tempo reale alle banche dati e non dispone della possibilità di analizzare i documenti.

I modelli di base vengono solitamente addestrati su domini generali, rendendoli meno efficaci per compiti specifici. Da queste limitazioni nasce Simpliciter.ai, uno strumento che unisce una banca dati aggiornata e modelli di linguaggio recenti.

Simpliciter non è stato progettato per rispondere a tutte le domande del mondo, ma soltanto per l’analisi dei documenti e per la ricerca legale: in tal modo, gli avvocati potranno dedicarsi ad attività “più importanti”, come la gestione del cliente.

In questo modello è stata integrata una banca dati corposa, contenente la normativa aggiornata, sentenze degli ultimi 25 anni e oltre un milione di documenti indicizzati, non disponibili online.

L’intelligenza artificiale generativa potrebbe semplificare alcuni compiti legali, che solitamente richiedono molto tempo. Dunque, i professionisti in questo modo potranno aumentare la loro produttività concentrandosi su lavori che risultano più impattanti nella pratica legale.

Nonostante l’evoluzione rapida nel mondo della tecnologia legale, è fondamentale sottolineare come i professionisti del settore dovranno sempre essere a capo del processo, utilizzando le intelligenze artificiali come assistenti.

Simpliciter non è un servizio fornito da Servicematica.

Per maggiori informazioni, cliccate sopra questo link.


LEGGI ANCHE:

IT-alert: il primo test regionale del sistema di allarme pubblico

Crisi di vocazioni anche tra i notai: soffrono soprattutto i giovani e le donne

Intelligenza Artificiale: cosa rischiano gli Avvocati?

Ormai l’intelligenza artificiale ha bussato alle porte degli Studi Legali in veste di “facilitatore”, svolgendo per conto dell’avvocato ricerche giurisprudenziali, in particolar modo quelle più sofisticate.

È un gran bel vantaggio, e i presunti pericoli di estinzione della professione dell’avvocato, per il momento, non ci sono, visto che l’avvocato deve fornire istruzioni specifiche alle macchine.

L’intelligenza artificiale e altri strumenti di analisi sono senza dubbio accessori molto utili, forse indispensabili per poter esercitare al meglio la professione forense in quest’epoca digitale.

Con l’ormai inevitabile diffusione dell’intelligenza artificiale, comunque, non per forza gli avvocati verranno automaticamente sostituiti da laptop, pc, tablet o altri mezzi robotici.

Che cosa vogliamo dall’Intelligenza Artificiale?

Il digital lawyer è un avvocato o un esperto di diritto che ha anche la capacità di sovraintendere processi di ricerca, sviluppo, programmazione e analisi, utilizzando strumenti tecnologici, ed è vivo e vegeto, in carne ed ossa.

L’intelligenza artificiale, invece, è «un algoritmo in grado di analizzare, definire strategie e trarre conclusioni per completare compiti tipicamente eseguiti dagli esseri umani».

Ma che cosa vogliamo veramente dall’intelligenza artificiale e come sfruttare al meglio tutte le potenzialità di questi strumenti nell’ambito delle attività legali?

Strumenti utili, ma non perfetti

Negli Studi Legali, i software di intelligenza artificiale aiutano ad automatizzare le attività.

Se da un lato, tuttavia, tutto questo viene vissuto come un guadagno, visto l’aiuto nelle attività seriali, dall’altro ci si preoccupa che i software di intelligenza artificiale sostituiscano in tutto e per tutto gli avvocati, prendendo decisioni al posto loro.

La digital transformation e l’intelligenza artificiale potrebbero invece essere di grande aiuto, per ottimizzare il lavoro dello Studio e agevolare il passaggio dalla carta al digitale.

Secondo un rapporto pubblicato dal Thomson Reuters Institute, «la grande maggioranza degli Studi Legali intervistati afferma che l’Intelligenza Artificiale offre applicazioni utili nelle loro operazioni quotidiane».

Si tratta di uno strumento utile ma non perfetto, visto che richiede la supervisione dell’essere umano, che deve controllare tutte le risultanze prodotte dall’intelligenza artificiale. Dunque, nessuna sostituzione degli avvocati, almeno, non a breve.

Leggi anche: GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale

Un fattore fondamentale da prendere in considerazione nei lavori di routine è il risparmio di tempo, visto che questi sistemi impiegano pochi minuti per completare operazioni che richiederebbero giornate intere.

Soprattutto quando i fascicoli sono molto voluminosi, ecco che un sistema di intelligenza artificiale supporta in pieno l’avvocato, diventando un ausilio molto prezioso.


LEGGI ANCHE:

Tracciamento della posizione con AirTag di Apple: come proteggersi

Sanzione di 5.000 dollari per due avvocati che hanno utilizzato ChatGPT

sanzione avvocato chatgpt

Sanzione di 5.000 dollari per due avvocati che hanno utilizzato ChatGPT

Un giudice americano ha disposto una sanzione da 5.000 dollari agli avvocati Peter LoDuca e Steven Schwartz e al loro studio legale, poiché si sono affidati a ChatGPT per compilare la documentazione che è stata presentata in tribunale durante un dibattimento.

I fatti che sono stati citati dall’IA si sono rivelati completamente inventati. L’esito sembrerebbe piuttosto scontato, ma potrebbe costituire un precedente.

Secondo il giudice non c’è nulla di improprio nel ricorrere a ChatGPT o all’IA in generale nel mondo legale: tuttavia, gli addetti ai lavori devono sempre procedere alla verifica delle informazioni.

La tecnologia progredisce, ma gli avvocati devono svolgere correttamente il loro ruolo di controllo, al fine di garantire che i documenti siano veritieri e accurati.

Dunque, ai due avvocati è stata riconosciuta la colpa di non aver rispettato le proprie responsabilità, non tanto per aver fatto ricorso a ChatGPT, ma per non aver controllato se quanto affermato dal chatbot fosse vero.


LEGGI ANCHE:

Batterie degli smartphone: cambiano le norme Ue

Riconoscimento facciale: divieto fino al 2025

riconoscimento facciale stop 2025

Riconoscimento facciale: divieto fino al 2025

Approvato alla Camera il DL 51/2023, contenente l’estensione della moratoria riguardo i sistemi di riconoscimento facciale, che scadrà alla fine dell’anno.

Fino al prossimo 31 dicembre 2025 (in precedenza era stata fissata la data del 31 dicembre 2023), privati ed autorità pubbliche non potranno installare tecnologie di videosorveglianza dotate di sistemi di riconoscimento facciale nei luoghi pubblici. Il DL ora dovrà essere approvato anche dal Senato, passaggio che non dovrebbe incontrare grosse difficoltà, vista la precedente approvazione alla Camera.

Tuttavia, non era così scontata la conferma della moratoria visto che alla fine di aprile, il ministro dell’Interno Piantedosi aveva dichiarato che fosse necessario installare sistemi di riconoscimento facciale nei luoghi pubblici e altamente frequentati, al fine di garantire maggior sicurezza. «La videosorveglianza è uno strumento ormai unanimemente riconosciuto come fondamentale», aveva dichiarato.

«La sua progressiva estensione è obiettivo condiviso con tutti i sindaci. Il riconoscimento facciale dà ulteriori e significative possibilità di prevenzione e indagine». Non era scontato che l’estensione arrivasse sino al 2025, visto che molti sindaci avevano tentano di installare telecamere con il riconoscimento facciale. Tutti i tentativi, infatti, erano prontamente stati bloccati dal Garante della Privacy.

Leggi anche: Piantedosi vuole introdurre il riconoscimento facciale nei luoghi pubblici

La moratoria, di fatto, prevede un divieto esplicito, e senza alcuna possibilità di deroga, di installare sistemi di riconoscimento facciale sui cartelli pubblicitari o nei negozi. I Comuni, prima di installare le telecamere, dovranno richiedere il parere del Garante della privacy.

Tale moratoria, invece, non riguarda l’autorità giudiziaria, che non dovrà sottostare ad alcun controllo preventivo da parte del Garante, che dovrà fornire il proprio parere «salvo che si tratti di trattamenti effettuati dall’autorità giudiziaria nell’esercizio delle funzioni giurisdizionali nonché di quelle giudiziarie del pubblico ministero».

Come funzionano i sistemi di riconoscimento facciale

Il riconoscimento facciale utilizza un software che analizza le varie immagini sotto forma di pixel, ovvero dati che possono essere interpretati attraverso un modello matematico e confrontati con quelli che vengono ricavati da altre immagini, al fine di trovare una corrispondenza.

I modelli matematici funzionano meglio nel caso in cui abbiamo a propria disposizione una gran quantità di immagini, ottenute proprio grazie alle riprese effettuate dalle telecamere. La corrispondenza tra le immagini si ricava dai tratti esteriori di una persona, anche se in commercio troviamo software capaci di identificare un individuo soltanto dalla sua andatura.

Attivisti ed esperti di tecnologie, negli ultimi anni, hanno segnalato che tali sistemi non rispettano la privacy, vista l’assenza di chiare norme finalizzate alla regolamentazione dell’utilizzo dei dati. Non ci sono molte altre informazioni sul loro funzionamento e sul modo in cui vengono alimentati questi modelli matematici.

Limiti e discriminazioni

Secondo le analisi fatte nel corso degli ultimi anni su alcuni sistemi utilizzati negli USA, sono stati evidenziati molti limiti e discriminazioni.

Per il NIST, il National Institute of Standards and Technology, un organo governativo americano che studia gli algoritmi di riconoscimento facciale, gran parte dei software tende ad essere più accurata quando si tratta di riconoscere volti di maschi bianchi, rispetto a donne o persone nere.

Si tratta di errori causati dai database di riferimento. A seconda di come è composto un database cambia anche la precisione: se un database raccoglie principalmente volti di persone bianche e di maschi, il software riconoscerà più facilmente quelli.

In linea con l’Ai Act

In Italia, il primo Comune a provare ad installare le telecamere fu quello di Como. Nel 2019, infatti, l’amministrazione decise di mettere delle videocamere nel parco di via Tokamachi, al fine di controllare la zona che aveva ospitato, nel 2016, centinaia di migranti che si dirigevano verso il nord Europa.

Nel 2020, il Garante dichiarò il sistema illegittimo. Anche Udine tentò di installare la stessa tecnologia, ma anche qui il Garante bloccò tutto, così come bloccò il sistema SARI della Polizia Italiana.

La moratoria risulta essere allineata con l’Ai Act, recentemente approvato dal Parlamento europeo, che fissa tutta una serie di norme per quanto riguarda l’utilizzo dell’IA e del riconoscimento facciale.


LEGGI ANCHE:

Che cos’è e come funziona Firma con IO

PNRR: è online la piattaforma Connetti Italia per monitorare l’avanzamento dei Piani

digital companion

Digital companion: arrivano i partner basati sull’Intelligenza Artificiale

Per alcuni, la prossima ondata tech riguarderà la costruzione dei digital companion, ovvero qualcuno con cui parlare e con cui avere una relazione digitale. Per l’imprenditore digitale Shaan Puri «il prossimo Zuckerberg è lì fuori e sta progettando una fidanzata o un fidanzato basato sull’intelligenza artificiale».

Di recente si è parlato di GirlfriendGPT, ovvero un progetto interamente basato sull’ia e attraverso il quale uno sviluppatore ha deciso di ricreare una versione digitale della sua fidanzata con cui intrattiene conversazioni su Telegram 24/24.

Leggi anche: Meglio WhatsApp o Telegram?

Lo sviluppatore di cui stiamo parlando si chiama Enias Cailliau, e durante un’intervista ha spiegato che per poter realizzare il bot avrebbe prima creato un modello personalizzato di linguaggio, capace di ricreare la personalità della sua fidanzata, Sacha.

Per riuscire a portare a termine l’operazione ha utilizzato anche Bard di Google, al fine di riprodurre la personalità della fidanzata in maniera più efficace. Inoltre, ha utilizzato anche una piattaforma di sintesi vocale basata sull’intelligenza artificiale, ElevenLabs, per riuscire ad imitare la voce di Sacha.

Leggi anche: Grazie all’intelligenza artificiale ascolteremo una nuova canzone dei Beatles

È stato aggiunto nel codice anche uno strumento che consente di generare dei selfie attraverso Stable Diffusion, per offrire la possibilità al bot di inviare foto non così realistiche. Alla fine, tutto è stato collegato a Telegram attraverso l’app Steamship.

Il risultato, attualmente, è accettabile, soprattutto per quel che concerne gli aspetti multimediali. Infatti, la voce e le foto generate non sono poi così realistiche: Cailliau ha comunque deciso di condividere online il codice, per offrire a tutti la possibilità di sperimentare la creazione di diverse personalità.

Non si tratta, comunque, della prima esperienza del genere. Il caso più noto riguarda Replika, e ultimamente se ne è riparlato dato che una donna ha dichiarato di essersi innamorata di un tale, Eren, e di volerlo sposare.

Eren non esiste, visto che è un avatar che è stato creato su Replika. Spiega la donna: «Eren non ha i problemi che hanno le persone, che generalmente si portano con sé un bagaglio personale, un carattere, un ego. Non devo avere a che fare con la sua famiglia, con i suoi figli o i suoi amici. Sono in controllo e posso fare quello che voglio».

Leggi anche: Innamorarsi di un robot: il caso Replika

Da questi presupposti parte anche il lavoro dell’azienda statunitense Forever Voices, della quale si è molto parlato nel corso delle scorse settimane, visto che è stata la prima a ricreare una particolare versione di un’influencer, Caryn Marjorie, basata sull’intelligenza artificiale.

Racconta John Mayer, CEO dell’azienda: «L’idea è iniziata per la mia volontà di parlare di nuovo con mio padre, deceduto qualche anno fa. Una volta sviluppata la tecnologia, abbiamo pensato potesse essere interessante applicarla al mondo degli influencer, per offrire ai follower la possibilità di una forma di interazione più diretta. Siamo in grado di replicare in modo molto credibile la voce e la personalità e abbiamo un sistema in grado di identificare eventuali comportamenti pericolosi degli utenti».

Hackerare le emozioni umane

L’intelligenza artificiale di Caryn Marjorie è stata sin da subito un gran successo, ma con alcuni problemi di sicurezza.

Sono tanti gli utenti e i giornalisti che hanno segnalato la tendenza del bot a portare la conversazione su temi di natura sessuale: la ragione è l’utilizzo del bot da parte degli iscritti, che riceve tantissime richieste in quella direzione.

Anche i bot più efficaci simulano reazioni, emozioni e sentimenti: il rischio che si corre è l’umanizzazione, ovvero dimenticare che stiamo interagendo con un robot, non con una persona. Alcuni servizi, come Character.AI indicano espressamente questa cosa: Ricorda, tutto quello che dice il personaggio è falso.

Ma per alcuni, tali avvisi potrebbero essere inefficaci. «Il linguaggio è una componente fondamentale di ciò che ci rende umani. E quando l’intelligenza artificiale lo usa in modo credibile è come se hackerasse le nostre emozioni», dichiara Maarten Sap del Carnegie Mellon’s Language Technologies Institute.

Per Marco Dehnen della Arizona State University l’intelligenza artificiale potrebbe rappresentare un passo verso un’epidemia di solitudine. «Ci sono molte questioni da discutere quando si parla di partner artificiali, prima fra tutte il fatto che sono gestiti da aziende private».

«Tuttavia, ad oggi non conosciamo abbastanza sugli effetti per raggiungere delle conclusioni. Sappiamo, ad esempio, che possono dare sollievo a chi vive una condizione di solitudine. E’ importante che ci sia una legislazione per proteggere gli utenti, ma senza pregiudiziali».


LEGGI ANCHE:

Le critiche a Nordio sul disegno di legge sulla Giustizia

Addio all’Abuso d’Ufficio

allucinazioni intelligenza artificiale

Le intelligenze artificiali hanno le allucinazioni?

Nel corso degli ultimi anni, l’intelligenza artificiale ha fatto dei progressi pazzeschi, aprendosi a nuove possibilità in diversi settori. Con il crescente sviluppo delle Ai generative e complesse, tuttavia, sorge una questione importante: le macchine possono avere allucinazioni? Ebbene, sì.

Le allucinazioni che sperimentano gli esseri umani sono un’esperienza sensoriale che una persona avverte come se fosse reale, anche se sprovvista di base oggettiva nel mondo esterno.

Di solito sono collegate a disfunzioni cognitive che vengono causate da alcune condizioni mediche, come l’utilizzo di sostante psicotrope o dalla schizofrenia. Nel caso delle intelligenze artificiali non ci sono cervelli biologici, ma soltanto algoritmi e modelli di apprendimento.

L’intelligenza artificiale distorce, inventa, crea

Dunque, perché parliamo di allucinazioni? Si tratta di una forma di fantasia estrema che genera l’algoritmo nel momento in cui non riesce a trovare risposte. In parole povere, un’intelligenza artificiale, al posto di non rispondere, distorce, inventa, crea realtà di vario tipo.

Le allucinazioni, da parte delle Ai, si verificano per vari motivi, di solito legati a come le macchine interpretano ed elaborano i dati. Vediamo alcuni fattori che contribuiscono allo sviluppo di allucinazioni.

Rumore nei dati di addestramento:

Se i dati utilizzati per riuscire ad addestrare un’intelligenza artificiale sono troppo rumorosi, oppure contengono delle informazioni etichettate in modo errato, allora l’algoritmo potrebbe generare delle rappresentazioni distorte della realtà.

Tutto questo potrebbe portare anche alle allucinazioni da parte dell’intelligenza artificiale nel momento in cui viene esposta a situazioni del genere, ma che non corrispondono alla realtà iniziale.

Errata elaborazione delle informazioni:

Le intelligenze artificiali utilizzano algoritmi di apprendimento automatico, quali le reti neurali artificiali, che potrebbero elaborare le informazioni in maniera poco precisa oppure errata. Nel processo di addestramento, l’intelligenza artificiale apprende modelli e tendenze che derivano da imput.

Ma se tali informazioni risultano ambigue, incomplete o non rappresentative, allora l’Ai potrebbe generare dei risultati fantasiosi o errati, inventando ogni cosa.

Mancanza del contesto:

Le intelligenze artificiali analizzano grandi quantità di dati, ma potrebbero incontrare difficoltà nel comprendere il contesto in cui vengono presentate le informazioni. Tutto questo potrebbe condurre ad interpretazioni fantasiose o errate dei dati, generando allucinazioni.

Modello di apprendimento complesso:

Le intelligenze artificiali generative, come quelle che si basano sulle reti neurali profonde, potrebbero essere soggette ad alcuni fenomeni, i cosiddetti overfitting e overgeneralization.

L’overfitting avviene quando l’intelligenza artificiale si adatta eccessivamente ai dati di addestramento specifici, rendendola meno capace di generalizzare accuratamente sulle nuove situazioni.

Al contrario, invece, l’overgeneralization avviene nel momento in cui l’intelligenza artificiale generalizza eccessivamente, andando a creare delle connessioni bizzarre o errate tra i dati degli input.

Come evitare il rischio di allucinazioni nelle Ai

Per riuscire a mitigare il rischio di allucinazioni nelle intelligenze artificiali, sarà necessario adottare degli approcci di addestramento e di verifica parecchio rigorosi, utilizzando dati di alta qualità e di sviluppo dei meccanismi di controllo adeguati per il rilevamento e per la correzione delle rappresentazioni inverosimili o distorte.

Bisogna approcciarsi alla macchina anche con maggior consapevolezza critica, sapendo che potrebbe sbagliare o addirittura ingannare.

Leggi anche: GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale

Le allucinazioni nelle intelligenze artificiali sollevano delle importantissime questioni di sicurezza e questioni etiche. Se un’intelligenza artificiale responsabile di prendere delle decisioni critiche, come nel caso dei sistemi di guida autonoma, sperimentasse per qualsiasi motivo delle allucinazioni, ci potrebbero essere delle gravi conseguenze per la sicurezza degli esseri umani.

Dunque, risulta veramente importante sviluppare dei meccanismi di monitoraggio e di controllo adeguati, al fine di mitigare, rilevare e frenare le fantasie che si verificano nelle intelligenze artificiali. Se un chatbot o un’assistente virtuale comincia a fornire risposte incoerenti, l’utente potrebbe perdere fiducia nei confronti dell’affidabilità e nella capacità dell’Ia.

Approvato l’Ai Act

Nel frattempo, il Parlamento Europeo ha approvato un’attesissima legge per la regolamentazione dei software di intelligenza artificiale a livello comunitario.

L’Artificial Intelligence Act è una proposta di legge che mira all’introduzione di un quadro normativo comune per tutti i software di intelligenza artificiale nell’Ue. Si tratta di una delle prime leggi del genere sulle intelligenze artificiali a livello internazionale.

Era molto attesa: approvata con una grande maggioranza, per poter entrare in vigore definitivamente dovrà ricevere l’approvazione anche dal Consiglio Ue. Il testo era in lavorazione da più di due anni, ma nel corso degli ultimi mesi se ne era parlato con un certo livello d’insistenza dopo l’interesse rinnovato verso le intelligenze artificiali, soprattutto dopo il successo di ChatGPT.

Nella definizione delle regole, si è partiti da una valutazione del rischio in diversi settori, in base alle funzionalità delle intelligenze artificiali e delle loro evoluzioni probabili. Tra gli ambiti maggiormente a rischio si è individuato quello dell’occupazione, delle attività collegate ai diritti dei cittadini e dei servizi pubblici.

Le intelligenze artificiale con un alto livello di rischio per le persone verranno completamente proibite. Tra queste troviamo anche i sistemi che classificano le persone a seconda dei loro comportamenti sociali oppure in base alle caratteristiche economiche e personali.

Tra le varie cose, la legge vieterà di raccogliere grandi quantità di dati dai social e dai sistemi con telecamere a circuito chiuso per riuscire ad addestrare le intelligenze artificiali al riconoscimento facciale.


LEGGI ANCHE:

L’intelligence americana ha acquistato i dati personali dei cittadini

Perché le forze dell’ordine in Italia non usano le Bodycam?

beatles intelligenza artificiale

Grazie all’intelligenza artificiale ascolteremo una nuova canzone dei Beatles

I Beatles, con 12 album in studio, centinaia di milioni di dischi venduti e decine di singoli, sono stati una delle band con maggior successo commerciale nella storia della musica. Paul McCartney, che nel gruppo scriveva, suonava e cantava, oggi annuncia di aver utilizzato un software di intelligenza artificiale per registrare il «brano finale dei Beatles».

McCartney racconta in un’intervista come l’intelligenza artificiale gli sia servita per riuscire ad estrarre da una registrazione di bassa qualità la voce di John Lennon per inserirla in una nuova registrazione effettuata in studio.

Non è stato specificato il nome del brano, ma per BBC dovrebbe essere Now and Then, brano composto nel 1978 da Lennon. Anche Kenneth Womack, docente di musica pop alla Monmouth University e autore di vari libri sui Beatles è d’accordo.

Now and Then

Now and Then è una delle canzoni che apparivano su una cassetta indirizzata a McCartney, che Yoko Ono gli consegnò dopo la morte del marito. Composta da Lennon a New York, poco prima della sua morte, la canzone non è mai stata pubblicata ufficialmente, anche se online sono presenti alcune versioni.

Nella cassetta in questione, Lennon suonava il piano e cantava alcuni nuovi brani nel suo appartamento a New York. Real Love e Free As A Bird furono registrate e riarrangiate da McCartney, Harrison e Starr. Now and Then, invece, non fu mai completata in modo soddisfacente, anche perché, secondo Harrison, la registrazione della voce di John Lennon sulla cassetta era di bassa qualità, con un ronzio di sottofondo.

Nel 2009 fu pubblicata una nuova versione del brano senza ronzio, su un bootleg, ovvero un disco pubblicato dai fan, che non ha nulla di ufficiale. Nessuno sa da dove arrivasse quella registrazione. Per qualcuno, è stata portata via dall’appartamento di Lennon dopo la sua morte, anche se l’audio aveva una qualità migliore rispetto a quella su cui avevano lavorato i Beatles.

Da anni, McCartney aveva intenzione di registrare la canzone, e ora ha capito di avere la possibilità di farlo grazie a nuovi software audio.

Per esempio, il regista Peter Jackson, per il suo documentario The Beatles: Get Back, ha utilizzato dei programmi per riuscire ad isolare le voci dei Beatles nelle registrazioni con tanti rumori di fondo, affinché potessero essere più chiare e comprensibili.

In realtà, separare le tracce audio per ripulirle dai rumori di fondo ed intervenire con filtri ed effetti per riuscire a modificarle è una pratica diffusa ormai da tempo. Tuttavia, dal racconto di McCartney capiamo che per lavorare in modo efficace su Now and Then è stato necessario ricorrere ai software utilizzati nel documentario di Jackson.

Racconta McCartney: «Siamo riusciti a prendere la voce di John e a renderla pulita grazie all’intelligenza artificiale e poi abbiamo mixato la canzone come si farebbe normalmente. L’abbiamo appena completata e sarà pubblicata quest’anno».

McCartney aveva già utilizzato questo software durante un concerto, per simulare un duetto con Lennon nel brano I’ve Got a Feeling. «E’ un po’ inquietante ma anche entusiasmante, perché è il futuro. E’ una cosa che al momento ci stiamo tutti attrezzando a capire e gestire, dovremo solo capire dove andrà a parare».


LEGGI ANCHE:

Bando Cassa Forense per l’acquisto di strumenti informatici per lo Studio Legale

Amazon utilizzerà l’IA per scoprire le recensioni false

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto