Difendersi dalle truffe telefoniche fatte con l’AI

Difendersi dalle truffe telefoniche fatte con l’AI

Vi arriva una telefonata da parte di un parente, che dice di essere stato coinvolto in un bruttissimo incidente stradale, e che ha bisogno che voi gli inviate dei soldi.

Il numero di telefono e la voce sembrano quelli del vostro parente; tuttavia, percepite che c’è qualcosa di strano. Se riagganciate e richiamate il numero, la persona dall’altra parte del telefono vi dirà di non avere la minima idea di che cosa state parlando.

Ebbene, era una chiamata truffa, realizzata per mano dell’intelligenza artificiale. Infatti, con i passi in avanti da parte degli strumenti di IA generativa, creare degli audio tanto fake quanto convincenti diventa sempre più semplice e abbordabile economicamente.

I malintenzionati sfruttano le innovazioni per trarre in inganno le vittime, al fine di convincerle di parlare con una persona a loro cara. Ma che cosa possiamo fare per correre ai ripari da queste truffe?

Secondo gli esperti di sicurezza, far sì che una telefonata sembri provenire da un numero di telefono reale non è un’operazione così complicata. Spiega Michael Jabbara di Visa: «Molte volte i truffatori falsificano il numero da cui vi chiamano. Dovete essere proattivi».

Infatti, che sia la banca o un parente, se ricevete una telefonata nella quale vi vengono richiesti soldi oppure informazioni personali, chiedete se potete richiamare l’interlocutore. Cercate online o tra i vostri contatti il numero, e richiamate. In alternativa, inviate una mail o avviate una videochat con il presunto interlocutore.

Secondo Steve Grobman di McAfee, una buona strategia è quella di trovare una parola di sicurezza da condividere soltanto con i parenti più stretti, che potete richiedere durante la telefonata: «Potete accordarvi su una parola o una frase che i vostri cari possono usare per dimostrare chi sono veramente».

In assenza di una parola di sicurezza, potete anche optare per una domanda personale: «Va bene anche una cosa semplice, come una domanda a cui solo il vostro caro saprebbe rispondere. Per esempio: ‘Ehi, voglio essere sicuro che sei davvero tu. Puoi ricordarmi cosa abbiamo mangiato a cena ieri sera?’ Assicuratevi che la domanda sia abbastanza specifica per fare in modo che un eventuale truffatore non possa indovinare la risposta».

I cloni audio fatti con l’intelligenza artificiale non colpiscono solo le persone famose. Per Rahul Sood di Pindrop «un errore comune è pensare che non possa succedere a te, che nessuno possa clonare la tua voce. Quello che la gente non capisce è che bastano solo 5-10 secondi della vostra voce presi da una clip di TikTok o da un video su YouTube per creare facilmente il vostro clone».

In ogni caso, i truffatori sono abili nel guadagnarsi la vostra fiducia, insistendo sui vostri punti deboli. Per evitare di cadere nella trappola, dice Jabbara, «diffidate di qualsiasi situazione che susciti in voi emozioni forti, perché i migliori truffatori non sono necessariamente gli hacker più abili tecnicamente».


LEGGI ANCHE:

DDL Intelligenza Artificiale: verso una giustizia più efficiente e trasparente?

Imposta di registro sugli atti giudiziari: il governo scrive nuove regole

TORNA ALLE NOTIZIE

Servicematica

Nel corso degli anni SM - Servicematica ha ottenuto le certificazioni ISO 9001:2015 e ISO 27001:2013.
Inoltre è anche Responsabile della protezione dei dati (RDP - DPO) secondo l'art. 37 del Regolamento (UE) 2016/679. SM - Servicematica offre la conservazione digitale con certificazione AGID (Agenzia per l'Italia Digitale).

Iso 27017
Iso 27018
Iso 9001
Iso 27001
Iso 27003
Agid
RDP DPO
CSA STAR Registry
PPPAS
Microsoft
Apple
vmvare
Linux
veeam
0
    Prodotti nel carrello
    Il tuo carrello è vuoto