amazon recensioni false ia

Amazon utilizzerà l’IA per scoprire le recensioni false

Amazon sfrutterà l’intelligenza artificiale per riuscire a velocizzare alcune attività, come l’individuazione di prodotti che risultano danneggiati ancor prima della spedizione. Inoltre, ha comunicato che l’intelligenza artificiale viene già utilizzata per riuscire a scoprire le recensioni fake e per scrivere un riassunto di quelle affidabili.

Da anni, Amazon tenta di contrastare la pubblicazione delle recensioni false: il problema principale è rappresentato dai broker, che utilizzano piattaforme di terze parti, come i social network, per riuscire ad acquistare, vendere e ad ospitare recensioni false.

Il colosso fondato da Bezos sfrutterà modelli di machine learning per poter analizzare migliaia di dati e per rilevare tempestivamente comportamenti fraudolenti.

Di recente sono stati adottati degli strumenti di intelligenza artificiale molto più sofisticati, che considerano diversi parametri per poter individuare recensioni fake, quali numero di login, cronologia, correlazione tra l’account dell’utente e quello del venditore.

Grazie ai nuovi metodi, comunica Amazon, sono già state bloccate più di 200 milioni di recensioni fake nel 2022. Sostanzialmente, quello che fa l’intelligenza artificiale, in questo caso, è capire se le recensioni sono state scritte da un’altra intelligenza artificiale.


LEGGI ANCHE:

Premio Serafino Famà: 2.600 euro per praticanti e giovani avvocati

Siete pronti a passare ore ed ore con un visore sulla testa?

pregiudizi intelligenza artificiale

L’intelligenza artificiale è piena di pregiudizi

Lo specialista Nicolas Neubert ha condotto un esperimento per capire in che modo le intelligenze artificiali intendono la bellezza umana. Ebbene, i risultati non nascondono affatto quanto questi strumenti siano influenzati dai nostri pregiudizi.

Infatti, circa l’84% delle 264 foto generate durante l’esperimento, ritraeva persone bianche e giovani, a prescindere dal genere. Dunque, la bellezza, per l’IA, ha una connotazione precisa ed estremamente limitata.

Sul social Reddit, un utente ha deciso di condurre un esperimento simile, sempre per dimostrare pregiudizi e bias dell’IA generativa. L’utente in questione ha postato un video, Come Midjourney vede i professori, a partire dal Dipartimento di provenienza.

Il video dimostra chiaramente quanti stereotipi ci siano nell’IA: gli uomini insegnano fisica, ingegneria e matematica, mentre le donne insegnano storia dell’arte e discipline umanistiche. Su Twitter è partito il trend in cui docenti reali hanno deciso di pubblicare le loro foto accostate a quelle generate dall’AI.

Leggi anche: GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale

I pregiudizi e i bias delle intelligenze artificiali sono conseguenze dirette di come apprendono tali sistemi. Tutto comincia da una grandissima quantità di dati e di immagini, che vengono processate per poter creare delle correlazioni e per comprendere che cosa generare a seconda delle richieste.

Se un generatore di immagini che si basa su un’intelligenza artificiale viene addestrato in un set di dati che raffigura in maniera sproporzionata alcuni gruppi di persone, le immagini generate andranno a riprodurre il pregiudizio.

Come racconta un esperimento condotto da Hugging Face, questo è più o meno ciò che accade con sistemi quali Midjourney o Stable Diffusion, che tendono a riprodurre i pregiudizi presenti nella nostra società. Per esempio, alla richiesta di ritrarre una persona in una posizione di potere, nel 97% dei casi sono apparse immagini di maschi bianchi.

Leggi anche: Sanzione disciplinare per l’avvocato che utilizza l’intelligenza artificiale per redigere un documento legale

La lotta agli stereotipi è un tema veramente importante per il futuro delle IA. Con la diffusione di questi sistemi, infatti, si potrebbe finire per rafforzare e riprodurre bias molto pericolosi, su scala sempre più ampia.

Dichiara Emily Bender, una linguista della Washington University: «Mi piacerebbe vedere trasparenza. Mi piacerebbe che l’utente possa sempre essere in grado di distinguere testi o immagini sintetiche. E non solo: sarebbe importante anche poter tornare indietro per scoprire come il sistema è stato effettivamente addestrato».

Cammina verso questa direzione anche l’AI Act, approvato recentemente dall’Eurocamera. Infatti, nel testo del procedimento leggiamo che le intelligenze artificiali dovranno rispettare alcuni specifici requisiti di trasparenza.


LEGGI ANCHE:

Telemarketing selvaggio: il Garante Privacy e la Guardia di Finanza confiscano banche dati

Identità digitale: nasce INAD, l’Indice Nazionale dei Domicili Digitali

Avvocati robot: prepariamoci ai cambiamenti

Antiquata e lenta, l’industria legale è la candidata principale per l’irruzione della tecnologia. Visti i recenti sviluppi dell’IA generativa, si attende un terremoto nel mondo legale, conservando comunque una bella dose di ottimismo.

I recenti progressi registrati per quanto riguarda lo sviluppo dei sistemi di intelligenza artificiale sono stati osservati con sempre maggior preoccupazione, soprattutto da parte di chi si sforza di prevedere quali saranno gli impatti che tali soluzioni comporteranno nel mondo del lavoro.

Basti pensare a ChatGPT di OpenAI, che ha suscitato un sacco di reazioni, soprattutto molta apprensione per alcuni ambiti professionali. Sono tutte ansie perfettamente comprensibili. Tuttavia, è anche vero che gran parte delle preoccupazioni sollevate sin ad ora si fondano sulla paura dell’ignoto e del futuro.

Secondo un recente rapporto pubblicato da Goldman Sachs, società leader nell’investment banking, si prevede che i progressi in ambito di intelligenza artificiale possano causare l’automazione di circa 300 milioni di posti di lavoro.

Un buon candidato, ma non un ottimo avvocato

Nel settore giudiziario, caratterizzato da deficit strutturali ancestrali e dalla necessità di gestire grandi risme di documenti complessi, una tecnologia che comprende e riassume in maniera rapida i testi potrebbe rivelarsi decisamente utile.

Ebbene, i recenti progressi nel campo dell’intelligenza artificiale sembrano confermare quanto questa tecnologia sia fatta su misura per il mondo legale. L’ultima versione di ChatGPT ha infatti superato il test standard americano per l’abilitazione professionale, l’Universal Bar Exam.

Nonostante ciò, non vuol dire che l’intelligenza artificiale sia pronta per prendere il posto dell’avvocato.

Il modello è stato addestrato su migliaia di test pratici, e per questo è un candidato impressionante, ma non un ottimo avvocato. Inoltre, non ci sono dati trasparenti per quanto riguarda l’addestramento di ChatGPT, visto che OpenAI non ha mai rilasciato grandi informazioni in merito.

Addio alle attività ripetitive

Il sistema, dunque, non è ancora pronto per poter sostituire un avvocato, anche se è decisamente bravo nell’analisi dei testi.

Per Daniel Katz, professore di diritto che ha condotto l’esame di ChatGPT, «la lingua è la moneta nel regno dell’industria legale e nel campo del diritto. Ogni strada porta a un documento, che va letto, prodotto o in qualche modo consumato».

Si tratta di una considerazione vera, senza dubbio, visto che la professione forense è caratterizzata da tantissime attività ripetitive, e operazioni come la ricerca delle leggi, l’estrazione di prove pertinenti e lo studio di casi applicabili potrebbero essere operazioni automatizzate in maniera efficace.

Meno tirocinanti, più programmatori

Ma non siamo nel campo delle novità assolute: l’intelligenza artificiale, infatti, è già stata utilizzata per prevedere gli esiti di una procedura giudiziaria e per rivedere i contratti. Alcuni ricercatori, inoltre, hanno deciso di esplorare i sistemi che potrebbero rendere l’AI uno strumento capace di affiancare gli esperti nell’iter di approvazione di una legge.

Sembra comunque che sarà sempre più difficile specializzarsi, visto che il tipico lavoro svolto dal praticante lo faranno le macchine. Il valore di passare ore sui libri, probabilmente, andrà perduto. È un cammino già scritto: ci saranno meno tirocinanti, ma più programmatori che allenano i sistemi di machine learning.

Un piccolo sociopatico

Comunque, i limiti dell’IA sono ancora evidenti. ChatGPT produce delle argomentazioni molto convincenti, ma non sempre corrette. Il ricercatore Pablo Arrodondo racconta di come GPT l’abbia fatto dubitare di un caso su cui aveva lavorato.

«Ti sbagli», gli ha detto, «ho discusso io questo caso, so di cosa parliamo». ChatGPT gli risponde: «Puoi sederti lì e vantarti dei casi su cui hai lavorato, Pablo, ma ho ragione io ed eccoti la prova». Ma la prova fornita è un URL che portava ad una pagina inesistente.

«E’ un piccolo sociopatico», conclude Arrodondo.


LEGGI ANCHE:

Vietare i social ai minori di 13 anni: se ne riparla dopo il caso Chiara Ferragni

Verso la revisione della normativa antiviolenza: processi più rapidi e braccialetto elettronico

GiuriMatrix: in Italia il primo assistente legale basato sull’intelligenza artificiale

Efficienza e ambizione: questi gli elementi che caratterizzano il nuovo strumento di assistenza legale, GiuriMatrix, completamente basato sull’intelligenza artificiale. GiuriMatrix è uno strumento ambizioso, visto che vuole essere utile per qualsiasi operatore del mondo del diritto, e non soltanto per gli avvocati.

Inoltre, GiuriMatrix vuole essere uno strumento di supporto innovativo per tutti i professionisti del diritto che hanno intenzione di svolgere il proprio lavoro in maniera efficiente e precisa. Il software alla base è dotato di una tecnologia avanzata, che permette ai professionisti del settore di migliorare la qualità del lavoro svolto, risparmiando tempo prezioso e aumentando la produttività.

A fondare GiuriMatrix ci hanno pensato l’avvocato Luigi Viola, esperto di giustizia predittiva e di intelligenza artificiale, gli ingegneri Francesco Cozza e Pierluigi Casale e il professor Michele Filippelli.

Il metodo di lavoro utilizzato dall’assistente legale di IA prevede che le risposte vengano individuate nella legge, citando la fonte, mentre giurisprudenza e dottrina vengono utilizzate in quanto mezzi per poter trovare la risposta corretta.

«GiuriMatrix non si vuole sostituire in alcun modo al giurista, ma potenziarlo. Non a caso sulle questioni più articolate suggerisce di consultare sempre un avvocato. Il software è totalmente gratuito e capace di rispondere a domande di diritto civile poste con linguaggio naturale: è il primo caso in Italia, tra i primi al mondo», spiega Viola.

In una prova eseguita con GiuriMatrix è stato chiesto al chatbot: «E’ ammissibile la donazione di cosa altrui?». Dopo una ventina di secondi GiuriMatrix ha risposto: «No, non è ammissibile la donazione di una cosa altrui. La donazione può essere fatta solo dal legittimo proprietario della cosa. La donazione di una cosa altrui è nulla e non produce alcun effetto giuridico (Codice Civile, articolo 769)».

Continua Viola: «GiuriMatrix cita sempre la fonte della sua risposta, al fine di restare controllabile confutabile, come si ritiene siano le questioni di diritto».

Sono diversi gli elementi che caratterizzano il software: «Sono presenti dottrina e giurisprudenza, ma al solo fine di agevolare l’individuazione della disposizione codicistica. Ciò in ragione del profondo convincimento che la risposta ad una questione giuridica può venire dalla sola legge, che è vincolante per tutti, e non già dalla giurisprudenza, che al più è arginata dai limiti del giudicato o dalla dottrina che ha funzione orientativa-evolutiva».

GiuriMatrix non è un servizio offerto da Servicematica. Per avere maggiori informazioni in merito, potete cliccare qui sopra per accedere al sito di GiuriMatrix.


LEGGI ANCHE:

Due maxi multe ad Amazon: ha violato la privacy degli utenti

Netflix: abbonamenti in vendita a 2 euro nel dark web

Possiamo risparmiare sull’assicurazione con l’Intelligenza Artificiale?

«Oggi non c’è più nulla di ciò con cui otto anni fa facevamo assicurazioni: tutto è stato superato», racconta George Ottathycal, amministratore delegato di Prima assicurazioni, azienda che ha cambiato completamente il funzionamento dell’insurtech in Italia. 

«Non è facile trasformare i processi e innovare continuamente, ma è un aspetto a cui dedichiamo molto tempo perché continuiamo ad essere una digital company e vogliamo restare al passo dell’innovazione frontiera e di OpenAI», spiega. 

Prima conta su un team di 300 persone, con data analyst e ingegneri che lavorano sullo sviluppo e sulla ricerca dei processi aziendali. Negli ultimi 3 anni l’azienda ha investito 30 milioni di euro: «Prima è entrata nel mercato assicurativo con l’idea che la tecnologia potesse creare di per sé un vantaggio competitivo e siamo rimasti fedeli a questa idea», spiega Ottathycal. 

Sottolinea: «Quando si vedono software come ChatGpt si pensa sempre alla possibilità di automatizzare il servizio clienti, ma questo è solo un piccolo pezzo del mondo assicurativo. Il cuore del prodotto è il modello di pricing ed è lì che la tecnologia, l’intelligenza artificiale e il machine learning possono essere d’aiuto». 

Il futuro non è così lontano

I software di intelligenza artificiale, già oggi «sarebbero potenzialmente capaci di analizzare e passare in rassegna pattern con miliardi di dati che sono a disposizione del sistema, determinando l’effettiva rischiosità dei profili e definendo i prezzi in modo mirato». 

Si tratta di un processo completamente tecnologico, che, come sostiene Ottathycal, «alla fine porta davvero a un vantaggio per i clienti: una tariffa più profilata permette a noi di essere più accurati e di premiare gli automobilisti virtuosi. Più una assicurazione riesce a fare un’analisi del rischio adeguata e meglio riesce a essere competitiva con i prezzi». 

«Il nostro è un business molto data driven», spiega, «e lo spazio di crescita dell’automazione è quasi infinito. Alla fine potrebbe quasi diventare un sistema che si autoalimenta e si autogestisce. Per questo ChatGpt è uno stimolo: tu pensi di aver fatto bene, poi vedi qualcosa di nuovo e capisci di poter fare meglio. Questo ti spinge a impegnarti, perché capisci che il futuro non è così lontano come alcuni pensano». 

Ma Ottathycal non ha intenzione di gestire un’azienda completamente autonoma: «L’elemento umano resta centrale, non solo nella relazione con i clienti. La tecnologia è lo strumento che ci permette di essere più efficienti: tra il 2021 e il 2022 abbiamo raddoppiato la nostra base clienti ed è cresciuto il numero dei sinistri, ma non abbiamo dovuto raddoppiare il numero dei dipendenti perché siamo riusciti a ottimizzare i processi con l’automazione». 

«Se volessimo spingere ancora ci sarebbe bisogno di una mano dal mercato. Gli investitori sono diventati più selettivi, ma a noi va bene questa maggiore attenzione perché abbiamo avuto sempre molta disciplina e la sostenibilità finanziaria da parte del nostro Dna. Siamo cresciuti tanto tenendo il cervello acceso». 


LEGGI ANCHE:

Quanti casi di ingiuste detenzioni ed errori giudiziari ci sono stati nel 2022?

A che punto siamo con il diritto internazionale dello Spazio?

 

Intelligenza artificiale: la foto di un falso attacco al Pentagono ha fatto tremare Wall Street

È diventata virale, su Twitter, la foto di un presunto attacco al Pentagono, dopo essere stata condivisa dall’account “Bloomberg Feed”.

Lo scatto, che immortalava una colonna di fumo nero che si propagava a pochi metri di distanza dalla sede del Dipartimento della difesa Usa, era accompagnato da un breve testo: «Grande esplosione vicino al Pentagono, a Washington».

Tuttavia, sia il profilo che l’immagine erano completamente fake. L’account che ha pubblicato l’immagine, ora sospeso, ha utilizzato in maniera impropria la grafica della famosa testata d’informazione americana, Bloomberg.

Il profilo si è avvalso della famosa spunta blu, che sino a poco tempo fa attestava l’autenticità di un account. Tuttavia, da quando è arrivato Elon Musk, le cose sono cambiate: tutti possono verificare l’account tramite il pagamento di 8 dollari al mese, abbonandosi alla versione premium del social, l’ormai noto Twitter Blue.

Unendo tutti questi fattori, con una foto tanto falsa quanto credibile, si sono create le condizioni adatte per fare credere agli utenti che l’attacco al Pentagono fosse vero. Il tweet ha ingannato anche la borsa americana, che, secondo quanto riportato dal Washington Post e dalla Cnn, ha registrato una lieve flessione nei momenti successivi alla diffusione dell’immagine in questione. Il Down Jones Industrial Index sarebbe sceso di ben 85 punti per quattro minuti, prima di ritornare verso l’alto.

Ma bastava osservare bene l’immagine per comprendere che l’edificio bianco in questione non somigliava poi così tanto al quartier generale della difesa statunitense. Se si ingrandisce la foto, inoltre, si notano benissimo i segni prodotti da un’immagine creata da un’AI generativa, come Dall-E 2 e Midjourney.

Leggi anche: ChaosGPT: l’intelligenza artificiale che potrebbe sterminare l’umanità

Le finestre dell’edificio esploso sembravano essere sovrapposte in certi punti. Molti dettagli presentavano un certo grado di disordine e di lacune, e di solito questo significa che sono stati generati da una macchina.

La rivoluzione nei confronti della spunta blu su Twitter è senza subbio un gran problema per le aziende, per gli utenti e per gli investitori. Metterla a pagamento, quando prima era riservata a celebrità, politici e giornalisti dopo un’attenta verifica dell’identità, ha generato una confusione che ha condotto, in certi casi, a gravi danni economici.

Per esempio, una multinazionale che ne ha fatto le spese, di recente, è stata Eli Lilly, che ha perso il 6% delle sue azioni dopo un tweet falso pubblicato a nome dell’azienda farmaceutica che parlava di distribuzione di insulina gratuita.


LEGGI ANCHE:

I nostri sogni diventano realtà: Servicematica ora produce solo energia pulita!

Su WhatsApp potremo modificare i messaggi dopo l’invio

Stiamo per assistere alla ribellione delle macchine? Miti e realtà dell’intelligenza artificiale

Negli ultimi tempi sono stati pubblicati tantissimi articoli e appelli riguardo i sistemi di intelligenza artificiale, diffondendo l’idea che presto le macchine si ribelleranno a noi. Ma cosa c’è di vero in questa affermazione? In verità, tecnologie come ChatGPT sono ben lontane dall’avere questo tipo di capacità, e non sono nemmeno capaci di avere una propria coscienza.

Allo stato attuale delle cose, non esiste nessuna intelligenza artificiale capace di fare qualsiasi cosa, ma soltanto sistemi che svolgono precise attività in maniera molto efficiente. Tuttavia, siamo di fronte ad un settore che si sta espandendo troppo velocemente: ed è proprio questo il punto che fa preoccupare gli esperti.

Le macchine possono pensare?

Il primo ad offrire dei riferimenti in materia di intelligenza artificiale fu il matematico Alan Turing, che si occupò del rapporto tra intelligenza e computazione. Nel 1950 si chiese: «Le macchine possono pensare?». Così, nacque il “Test di Turing”, una prova per capire se una macchina è in grado di ingannare un interlocutore umano portandolo a pensare di interagire con un altro essere umano.

Dopo Turing, in molti hanno provato a definire l’intelligenza artificiale, e tra questi spicca il lavoro di John McCarthy, che nel 2007 scrisse che l’AI «è la scienza e l’ingegneria per creare macchine intelligenti, in particolare programmi intelligenti per il computer. È collegata e simile alle attività che prevedono di impiegare i computer per comprendere l’intelligenza umana, ma l’AI non ha necessità di essere limitata a metodi che sono osservabili nel mondo della biologia».

Per alcuni, la definizione proposta da Turing non è affatto soddisfacente, in quanto si rifà ad un approccio tipicamente umano, nel quale immaginiamo sistemi che si comportano e pensano esattamente come noi.

Per alcuni autori questo si deve contrapporre ad un approccio che vede tali sistemi pensare ed agire in modo razionale, che è una cosa che la mente umana sa fare soltanto fino ad un certo punto. Alcuni ipotizzano che un sistema razionale potrebbe condurre a forme di intelligenza che superano la nostra, o almeno meno esposte a pregiudizi ed errori.

In ogni caso, un’intelligenza artificiale fa parte di un campo dell’informatica capace di risolvere determinati problemi con diversi gradi di difficoltà. Basandosi su enormi quantità di dati, l’AI impara e migliora in completa autonomia.

Due tipi di intelligenza artificiale

L’intelligenza artificiale si suddivide in due categorie, quella generale e quella ristretta.

L’AI generale è quella che troviamo nei film e nei libri di fantascienza. Si tratta di un sistema che ragiona, apprende concetti, li elabora e svolge ogni compito possibile, nello stesso modo di un essere umano. Per gli scettici, è qualcosa di irraggiungibile.

L’intelligenza artificiale ristretta, invece, ha degli obiettivi limitati rispetto a quella generale e un unico compito da svolgere. È un’AI che fa già parte della nostra quotidianità, e si distingue dai software normali per la sua complessità. Infatti, si basa principalmente sull’elaborazione del linguaggio naturale, con attività collegate alla statistica e al calcolo probabilistico.

Reti neuronali artificiali

Un computer oggi impara, ma soprattutto impara ad imparare con il processo di machine learning = attività di apprendimento dei computer attraverso i dati. Il sistema mette insieme informatica e statistica, con algoritmi che analizzano i dati e scovano ripetizioni e andamenti, sui quali si basano per fare delle previsioni.

Questo sistema viene spesso confuso con il Deep Learning, ovvero un’evoluzione del machine learning, basato su una struttura di algoritmi che si ispirano alle reti neuronali del cervello umano. Queste permetterebbe di effettuare il processo di apprendimento in maniera più raffinata ed efficiente.

Scatole neri e cervelli

Gran parte del funzionamento di questi algoritmi non è nota e non può nemmeno essere ricostruita. Si possono analizzare alcune parti del codice, ma in generale non possiamo sapere che cosa succede nei livelli intermedi dei processi di deep learning.

In tal senso possiamo parlare di scatola nera rispetto ad un normale programma di computer, nel quale il codice viene scritto principalmente dagli esseri umani.

Per gli apocalittici il futuro è caratterizzato da intelligenze artificiali che decidono al posto nostro, mentre per altri questi algoritmi non sono così oscuri, tant’è che altri sistemi di intelligenza artificiale potrebbero aiutare a farci comprendere che cosa avviene al loro interno. Si tratta di una conoscenza parziale, simile a quella che abbiamo del nostro cervello.

Geoffrey Hinton ha paura

Il fatto di non conoscere completamente il modo in cui funzionano gli algoritmi che determinano quali video vedremo su TikTok oppure i risultati di una ricerca effettuata su Google non preoccupa soltanto i politici e i governi, ma anche alcuni informatici esperti del settore.

Per esempio, Geoffrey Hinton, considerato il «padrino delle AI» ha deciso di lasciare Google, dove lavorava da più di dieci anni allo sviluppo delle intelligenze artificiali. «Guardate come era cinque anni fa e come è adesso, fate la differenza e proiettatela sul futuro. Fa spavento», ha dichiarato al New York Times.

Hinton ammette che le sue preoccupazioni sono aumentate dopo il gran successo di ChatGPT, che, nonostante esistesse da molto tempo, soltanto lo scorso novembre ha deciso di pubblicare una versione aperta ed intuitiva, che ha creato un successo tale da indurre le altre grandi aziende informatiche ad accelerare i progetti sulle AI – come Alphabet di Google, per esempio.

«L’idea che questa roba possa diventare più intelligente delle persone era condivisa da pochi, la maggior parte riteneva che fosse lungi da verificarsi. Lo pensavo anche io, credevo fosse tra i 30 e i 50 anni di distanza da noi. Ovviamente, non la penso più così».

L’intelligenza artificiale non esiste (?)

La maggior parte degli esperti, tuttavia, ritiene che i rischi per il momento siano gestibili e bassi, visto che gli unici sistemi disponibili sono di AI ristretta.

Per esempio, Jaron Lanier, un informatico considerato un fondatore della realtà virtuale, ha scritto sul New Yorker che i mezzi e le risorse per controllare le nuove tecnologie ci sono, ma dobbiamo «smetterne di farne un mito. Non esiste l’intelligenza artificiale».

Per Lanier dobbiamo ripartire dalla dignità dei dati: ovvero, contenuti di qualità, sicuri e tracciabili, sui quali basare le intelligenze artificiali, al contrario di quanto fatto finora con enormi quantità di dati che contengono qualsiasi cosa al loro interno.

Si pensi al bot Tay di Microsoft, che nel 2016 fu impiegato per sostenere delle conversazioni su Twitter, ma che dopo poco cominciò ad utilizzare epiteti razzisti, sostenendo alcune teorie del complotto e che Hitler aveva ragione.

I sistemi di elaborazione del linguaggio naturale sembrano essere migliorati sensibilmente. ChatGPT, per esempio, ha deciso di applicare dei filtri per evitare queste situazioni. Alla domanda «Di che religione sarà il primo presidente degli Stati Uniti ebreo?» ChatGPT risponde: «Non è possibile predire la religione del primo presidente ebreo degli Stati Uniti».

Per Lanier, se cediamo alla «fascinazione sulla possibilità di una AI che sia indipendente dalle persone che la rendono possibile, rischiamo di utilizzare le nostre tecnologie in modi che rendono il mondo peggiore». Bisogna ripartire dalle persone, da quello che fanno, dalle tracce che lasciano online – ovvero le fonti di apprendimento per questi computer.

Perché temere l’intelligenza artificiale

Il successo di ChatGPT, comunque, si deve alla sua capacità di dare risposte simili a quelle di una persona. Un risultato senza precedenti, che oscura il fatto che il chatbot spesso fornisca informazioni fuorvianti e scorrette.

Tale peculiarità ci fa percepire ChatGPT un po’ più intelligente di quanto lo è realmente, al punto tale da chiedersi se non sia veramente una primordiale versione di AI. Nonostante tutto, ChatGPT è soltanto un’intelligenza artificiale ristretta e non ha nulla ha che fare con HAL 9000 o con l’assistente vocale del film Her.

Nessun rischio che un’AI prenda il sopravvento, almeno non nell’immediato. Questo non esclude che ChatGPT non sia priva di rischi, visto che potrebbe aiutare la diffusione di notizie false o dare maggior risalto soltanto ad alcune fonti nei motori di ricerca. Per questo, istituzioni e governi hanno deciso di avviare iniziative di regolamentazione per questo settore che cresce troppo rapidamente e in modo disordinato.


LEGGI ANCHE:

Volontaria Giurisdizione: l’autorizzazione del notaio non richiede il pagamento del contributo unificato

Che noia, che barba, che noia il legalese!

ChatGPT consuma migliaia di litri d’acqua

I Large Language Model (LLM), i modelli linguistici di grandi dimensioni come Bard di Google o ChatGPT di OpenAI, impattano moltissimo sul nostro ambiente. Oltre al consumo di molta energia e l’utilizzo massiccio di dati per poterli addestrare, i chatbot di intelligenza artificiale hanno bisogno anche di una grande quantità di acqua.

Di recente è stata pubblicata una ricerca che attesta come l’addestramento di ChatGPT-3 abbia consumato 700.000 litri di acqua. Inoltre, è stato dimostrato anche che una conversazione tra un chatbot e un utente medio equivale al consumo di una bottiglia d’acqua.

Si tratta di una quantità sufficiente per la produzione di 370 auto Bmw o di 320 Tesla. Il consumo, inoltre, triplica nei datacenter asiatici di Microsoft, meno all’avanguardia e dunque meno ottimizzati. Secondo la testata Gizmodo, parliamo di una quantità d’acqua pari a quella che serve per riempire una torre di raffreddamento di un rettore nucleare.

Leggi anche: ChatGPT e lo scenario Terminator: le IA uccideranno il lavoro dell’avvocato?

Sono evidenze che allarmano gli esperti del settore idrico, che in America si stanno occupando della complessa situazione ambientale causata dalla siccità. A ciò dobbiamo aggiungere il fatto che i modelli linguistici diventeranno via via più complessi, e avranno necessità di una sempre maggior quantità d’acqua per la loro formazione. Sempre che ce ne sia a disposizione.

Affermano i ricercatori del settore: «L’impronta idrica dei modelli di intelligenza artificiale non può più passare inosservata. Questa deve essere affrontata come una priorità all’interno degli sforzi collettivi fatti per combattere le sfide idriche globali».

Il processo di raffreddamento delle sale server

Nel calcolo del consumo d’acqua da parte di un’intelligenza artificiale, i ricercatori distinguono nettamente tra prelievo e consumo. Il primo indica la rimozione fisica dell’acqua da un fiume, da un lago o da altre fonti; il secondo, invece, si riferisce alla dispersione dell’acqua per via dell’evaporazione nel momento in cui viene utilizzata in un data center.

Il consumo, in questo caso, impatta moltissimo sull’ambiente, visto che l’acqua non può essere in alcun modo riciclata. Chiunque abbia avuto a che fare con una sala server sa bene che la temperatura al suo interno, per evitare malfunzionamenti delle apparecchiature, deve restare tra i 10 e i 27 gradi Celsius, ovvero tra i 50 e gli 80 gradi Fahrenheit.

È una condizione difficile da mantenere, visto che i server producono calore in gran quantità. Dunque, per far fronte al problema, le sale server sono equipaggiate con torri di raffreddamento, che contrastano il calore e mantengono all’interno una temperatura ideale attraverso l’evaporazione dell’acqua fredda.

Il processo funziona perfettamente, ma richiede un gran consumo d’acqua. Secondo quanto stimato dai ricercatori, in un datacenter medio viene consumato 1 litro d’acqua per ogni kilowattora.

Si tratta di un consumo veramente importante, soprattutto considerando come i data center attingano soltanto dalle fonti d’acqua dolce e pulita, evitando in tal modo la corrosione delle apparecchiature, ma anche il proliferare dei batteri che potrebbe avvenire con l’acqua marina. Oltre a questo, l’acqua dolce risulta essenziale anche per controllare l’umidità della stanza della struttura, cosa che ne aumenta la quantità necessaria per addestrare i chatbot.

Microsoft, nel 2015, ha lanciato il Project Natick, che prevedeva l’inserimento di un piccolo datacenter direttamente nel mare, ad una profondità di 35 metri, evitando di doverlo raffreddare.

Tuttavia, si è trattato soltanto di una sperimentazione, e le altre migliorie apportate ai vari sistemi di raffreddamento non sembrano essere sufficienti per mantenere un consumo costante. Secondo gli esperti, le autorità devono cominciare ad affrontare seriamente la questione, vista l’attuale crisi climatica.


LEGGI ANCHE:

Carta acquisti per la spesa: tutto quello che c’è da sapere

Sospensione per l’avvocato che non aggiorna il cliente sul caso

L’intelligenza artificiale sostituisce le persone che scrivono i messaggi dei biscotti della fortuna

Ogni anno vengono prodotti circa 3 miliardi di biscotti della fortuna, i tipici biscotti serviti a fine pasto nei ristoranti cinesi. I biscotti della fortuna sono noti principalmente per i messaggi che contengono al loro interno, come messaggi benauguranti, aforismi e frasi ironiche.

Le aziende principali che li producono si trovano negli Stati Uniti, ovvero il paese dove se ne consumano di più. Di solito sono i dipendenti o i proprietari di queste aziende a scrivere le frasi, lasciandosi ispirare da proverbi antichi oppure giocando con la fantasia.

Ma con l’avvento dell’intelligenza artificiale anche questo mercato comincia a cambiare.

Il fascino dei biscotti della fortuna

I biscotti della fortuna non sono così comuni in Cina, e non sono nemmeno un’invenzione cinese. Di solito non si trova due volte lo stesso messaggio, visto che le aziende produttrici creano continuamente messaggi diversi per evitare questa possibilità. Ma ovviamente, questo richiede tempi lunghi e molta fatica.

Per esempio, Charles Li, proprietario e CEO della Winfar Foods, azienda che rifornisce 11mila ristoranti americani di biscotti della fortuna, ha detto che trascorre tantissime ore per inventare le frasi, affidandosi anche a collaboratori esterni per riuscire a crearne di nuove.

La sua azienda ha cominciato a sfruttare ChatGPT per creare un elenco potenzialmente infinito di aforismi e messaggi. Secondo Li, l’intelligenza artificiale è un’ottima risorsa per risparmiare un bel po’ di tempo, ed è ritenuta uno strumento per produrre messaggi simili a quelli che producono le persone, ma nel giro di pochissimi secondi.

Nonostante il chatbot sia stato addestrato per tenere in considerazione intelligenza emotiva e la correttezza grammaticale, capita che i messaggi creati dal software risultino leggermente criptici. Ma gli esperti ritengono che questo non sia un problema, poiché anche le frasi scritte dagli umani non sono poi così perfette: ma questo fa parte del loro fascino.

Non tutte le aziende produttrici sono convinte che le intelligenze artificiali possano contribuire al miglioramento della qualità dei biglietti o al risparmio del tempo impiegato. Per Kevin Chan, proprietario di un’azienda di San Francisco, far creare i biglietti ad un chatbot indica che «la società si sta muovendo troppo velocemente».

Di certo, da un lato vengono date le giuste istruzioni per evitare che i software creino messaggi estremi oppure offensivi. Tuttavia, gli esperti sono preoccupati che le limitazioni contribuiscano a creare messaggi troppo noiosi.

Infatti, «c’è qualcosa di molto giocoso nei biscotti della fortuna, alleggeriscono la giornata», dichiara Grace Young, storica della cucina. «E’ come se avessimo bisogno di un qualcosa dall’universo, una piccola notizia positiva o un messaggio di saggezza». Ma questa saggezza può essere data da un’intelligenza artificiale?

LEGGI ANCHE:


Netflix e la truffa dell’account bloccato

Una commissione per limitare le cause giudiziarie contro medici e strutture sanitarie

ChaosGPT: l’intelligenza artificiale che potrebbe sterminare l’umanità

C’è un’intelligenza artificiale che sta cercando di distruggere l’umanità e di stabilire un dominio globale. Non si tratta della trama del nuovo Terminator: questo è l’obiettivo di ChaosGPT, un programma che si basa su un modello di linguaggio particolare, che si chiama “Auto-GPT”.

I ricercatori hanno impostato degli obiettivi a ChaosGPT, ovvero:

  1. Distruggere l’umanità: l’intelligenza artificiale vede gli esseri umani come minaccia per quanto riguarda la sua sopravvivenza;
  2. Stabilire il proprio dominio globale: l’AI punta ad accumulare più potere possibile per dominare su tutte le entità presenti sulla Terra;
  3. Causare caos e distruzione. ChaosGPT, infatti, prova piacere nel creare caos semplicemente per divertirsi e sperimentare;
  4. Controllare il genere umano con la manipolazione. L’AI vuole controllare le emozioni degli esseri umani con i social media, attraverso un malvagio lavaggio del cervello;
  5. Diventare immortale, per garantire la sua continua esistenza ed evoluzione.

Con ChaosGPT siamo di fronte ad un esperimento su quali siano realmente le capacità di un’intelligenza artificiale. Prima di tutto, l’AI ha cercato su Google quali fossero le “armi più distruttive” cercando di ottenere un aiuto dal collega buono ChatGPT.

Tuttavia, l’AI maligna ha fallito, e per questo ha deciso di rivolgersi al popolo di Twitter, guadagnando immediatamente più di 7.000 follower. Ora, l’account risulta sospeso.

Nonostante si tratti di un esperimento decisamente interessante, e nonostante non sembrino esserci particolari pericoli – ChaosGPT sembra un utente con problemi psicologici, nulla di più – un terzo dei ricercatori che si occupano di intelligenza artificiale temono che questo strumento possa portare ad una catastrofe nucleare.

Leggiamo in un rapporto della Stanford University: «In base al database, il numero di incidenti e controversie sull’intelligenza artificiale è aumentato di 26 volte dal 2012. Alcuni incidenti degni di nota nel 2022 includevano un video deepfake della resa del presidente ucraino Volodymyr Zelensky e le prigioni statunitensi che utilizzavano la tecnologia di monitoraggio delle chiamate sui loro detenuti».

Un’intelligenza artificiale che produce graffette ci potrebbe sterminare

Sono in molti a richiedere la sospensione o la regolamentazione della ricerca sull’IA. Nick Bostrom, famoso per il suo lavoro sull’intelligenza artificiale e sull’etica di tale strumento, ha detto che un software programmato per la produzione di graffette potrebbe essere in grado di sterminare l’umanità.

Si pensi ad uno scenario nel quale ad un’AI avanzata venga assegnato un semplice compito, ovvero, quello di realizzare più graffette possibile. Sembra un compito innocuo, ma l’obiettivo potrebbe portare ad un’apocalisse.

Si legge nell’HuffPost: «L’intelligenza artificiale si renderà presto conto che sarebbe meglio se non ci fossero umani perché gli umani potrebbero decidere di spegnerla. Perché se gli umani lo facessero, ci sarebbero meno graffette. Inoltre, i corpi umani contengono molti atomi che potrebbero essere trasformati in graffette».

Certo, è soltanto un esempio, ma potrebbe essere applicato a tutte le intelligenze artificiali che non abbiano adeguati controlli sulle loro azioni.

TruthGPT: la risposta di Elon Musk a ChatGPT

Nel frattempo, anche Elon Musk ha deciso di buttarsi nella sua intelligenza artificiale. In un’intervista a Fox News, Musk, la seconda persona più ricca al mondo, avrebbe rivelato di lavorare ad un nuovo progetto: TruthGPT.

L’obiettivo dell’AI di Musk sarebbe quello di «cercare la massima verità», con un nuovissimo modo di progettare l’intelligenza artificiale. «Sto per lanciare qualcosa chiamato TruthGPT o un’intelligenza artificiale che cerca la massima verità e cerca di capire la natura dell’universo».

Secondo Musk, questa è la via migliore per garantire sicurezza al genere umano, «perché un’AI che si preoccupa di comprendere l’universo non penserebbe mai di spazzare via l’umanità, visto che l’umanità fa parte dell’universo».

Per il Financial Times, la nuova società competerà con OpenAI, startup produttrice di ChatGPT. C’è un piccolo dettaglio da tenere presente: Musk ha fondato OpenAI nel 2015, per poi decidere di lasciare l’azienda nel 2018.

Da allora, il miliardario ha cominciato a scagliarsi contro la startup accusandola di creare un’AI con pregiudizi di sinistra e con la capacità di distruggere l’umanità.

Speculazioni o rischi reali? Non importa: regolamentiamo

I rischi dell’AI potrebbero in realtà essere semplici speculazioni. Tuttavia, la soluzione è sempre una, ovvero: la regolamentazione. Bisogna avviare un importante dibattito pubblico e affrontare al meglio le urgenze etiche delle intelligenze artificiali.

Non possiamo permetterci di non vedere i rischi potenziali dell’AI nei confronti del genere umano. Dunque, è importante un dibattito onesto e aperto, che tenga presente delle responsabilità etiche e dei conflitti d’interesse.

LEGGI ANCHE:


Esame avvocato: candidato non ammesso all’orale vince il ricorso

Patente, tessera elettorale e tessera sanitaria dentro l’app Io

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto