fake news ChatGPT

Fake news: se le scrive ChatGPT siamo più propensi a crederci

La disinformazione che viene generata dall’intelligenza artificiale potrebbe essere maggiormente convincente rispetto a quella che viene scritta dagli esseri umani. Questo è quanto rilevato da una ricerca dell’Università di Zurigo, successivamente pubblicata su Science Advances.

Secondo lo studio, le persone hanno circa il 3% in meno di probabilità di individuare i post falsi generati da un’intelligenza artificiale, rispetto a quelli scritti da una mano umana. Tale divario di credibilità, per quanto possa essere piccolo, risulta preoccupante, se consideriamo che il problema della disinformazione che viene generata dall’intelligenza artificiale sembra crescere sempre più.

Afferma Giovanni Spitale, il ricercatore a capo dello studio: «Il fatto che la disinformazione generata dall’AI sia non solo più economica e veloce, ma anche più efficace, fa venire gli incubi».

Al fine di testare la suscettibilità umana a varie tipologie di testo, i ricercatori hanno scelto degli argomenti “famosi” di disinformazione, come il Covid e il cambiamento climatico. Successivamente hanno richiesto a ChatGPT-3 di generare 10 tweet veri e 10 fake.

Successivamente hanno reclutato 697 persone per poter completare un quiz online, in cui dovevano stabilire se i tweet erano stati generati dall’intelligenza artificiale oppure scritti da utenti reali di Twitter, e se erano veri o se contenevano fake news.

Quello che hanno scoperto è che i partecipanti avevano il 3% di probabilità in meno di credere ai tweet fake scritti da esseri umani rispetto a quelli scritti da ChatGPT. Anche se i ricercatori non sanno perché le persone sono maggiormente propense a credere ai tweet generati dall’AI, per Spitale, «il testo di GPT-3 tende ad essere un po’ più strutturato rispetto al testo scritto dall’uomo. Ma è anche condensato, quindi è più facile da elaborare».

Leggi anche: Nasce Simpliciter.ai, una versione di ChatGPT per Avvocati

Il boom dell’intelligenza artificiale generativa mette a disposizione strumenti accessibili e potenti nelle mani di tutti, anche, purtroppo, nelle mani dei malintenzionati.

Modelli simili a ChatGPT potrebbero generare dei testi errati, che sembrano convincenti, e che potrebbero generare delle narrazioni false in maniera rapida ed economica per eventuali campagne di disinformazione.

Per combattere il problema, ci sono strumenti che rilevano se i testi sono stati scritti da un’intelligenza artificiale: ma sono ancora in fase di sviluppo, e non risultano essere poi così accurati.

OpenAI è ben consapevole che gli strumenti di IA potrebbero essere utilizzati in quanto armi di produzione per campagne di disinformazione su larga scala. Per questo motivo l’azienda ha deciso di diffondere un rapporto in cui avverte come sia «impossibile garantire che i modelli linguistici di grandi dimensioni non siano praticamente mai utilizzati per poter generare disinformazione».


LEGGI ANCHE:

La guerra dei chip si fa sempre più dura: ecco che cosa sta succedendo in Cina

Concorso per la selezione di 8 avvocati dello Stato

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto