La disinformazione che viene generata dall’intelligenza artificiale potrebbe essere maggiormente convincente rispetto a quella che viene scritta dagli esseri umani. Questo è quanto rilevato da una ricerca dell’Università di Zurigo, successivamente pubblicata su Science Advances.
Secondo lo studio, le persone hanno circa il 3% in meno di probabilità di individuare i post falsi generati da un’intelligenza artificiale, rispetto a quelli scritti da una mano umana. Tale divario di credibilità, per quanto possa essere piccolo, risulta preoccupante, se consideriamo che il problema della disinformazione che viene generata dall’intelligenza artificiale sembra crescere sempre più.
Afferma Giovanni Spitale, il ricercatore a capo dello studio: «Il fatto che la disinformazione generata dall’AI sia non solo più economica e veloce, ma anche più efficace, fa venire gli incubi».
Iscriviti al canale Telegram di Servicematica
Notizie, aggiornamenti ed interruzioni. Tutto in tempo reale.
Al fine di testare la suscettibilità umana a varie tipologie di testo, i ricercatori hanno scelto degli argomenti “famosi” di disinformazione, come il Covid e il cambiamento climatico. Successivamente hanno richiesto a ChatGPT-3 di generare 10 tweet veri e 10 fake.
Successivamente hanno reclutato 697 persone per poter completare un quiz online, in cui dovevano stabilire se i tweet erano stati generati dall’intelligenza artificiale oppure scritti da utenti reali di Twitter, e se erano veri o se contenevano fake news.
Quello che hanno scoperto è che i partecipanti avevano il 3% di probabilità in meno di credere ai tweet fake scritti da esseri umani rispetto a quelli scritti da ChatGPT. Anche se i ricercatori non sanno perché le persone sono maggiormente propense a credere ai tweet generati dall’AI, per Spitale, «il testo di GPT-3 tende ad essere un po’ più strutturato rispetto al testo scritto dall’uomo. Ma è anche condensato, quindi è più facile da elaborare».
Leggi anche: Nasce Simpliciter.ai, una versione di ChatGPT per Avvocati
Il boom dell’intelligenza artificiale generativa mette a disposizione strumenti accessibili e potenti nelle mani di tutti, anche, purtroppo, nelle mani dei malintenzionati.
Modelli simili a ChatGPT potrebbero generare dei testi errati, che sembrano convincenti, e che potrebbero generare delle narrazioni false in maniera rapida ed economica per eventuali campagne di disinformazione.
Per combattere il problema, ci sono strumenti che rilevano se i testi sono stati scritti da un’intelligenza artificiale: ma sono ancora in fase di sviluppo, e non risultano essere poi così accurati.
OpenAI è ben consapevole che gli strumenti di IA potrebbero essere utilizzati in quanto armi di produzione per campagne di disinformazione su larga scala. Per questo motivo l’azienda ha deciso di diffondere un rapporto in cui avverte come sia «impossibile garantire che i modelli linguistici di grandi dimensioni non siano praticamente mai utilizzati per poter generare disinformazione».
LEGGI ANCHE:
La guerra dei chip si fa sempre più dura: ecco che cosa sta succedendo in Cina