Traduci

NUOVA FRONTIERA DEL CYBERCRIMINE: CLONARE LA VOCE CON IA

I progressi che l’intelligenza artificiale ed il machine learning, stanno recentemente compiendo in tutti i campi sono senza ombra di dubbio incredibili. Ma in un mondo sempre più connesso e tecnologicamente avanzato come quello di oggi, le nuove tecnologie rappresentano una lama a doppio filo. Se da una parte è vero che offrono incredibili opportunità, dall’altro possono anche essere un pericolo strumento se sfruttate da criminali informatici per compiere truffe ed estorsioni. Uno degli ultimi pericoli recentemente emersi riguarderebbe la “clonazione vocale”, un fenomeno che sfrutterebbe proprio l’intelligenza artificiale e il machine learning per ingannare le vittime. A lanciare l’allarme sono gli esperti di Trend Micro, azienda di sicurezza che parlano del cosiddetto “rapimento virtuale”. Questo inizierebbe con i criminali che raccolgono informazioni personali sulle vittime e i loro cari dai vari social media, compresi foto e filmati. Successivamente, utilizzando strumenti di clonazione vocale, riescono a replicare la voce delle persone in modo incredibilmente accurato per poi usarla per perpetrare estorsioni o frodi. Nel mirino ci sarebbero soprattutto gli anziani che, credendo di parlare con figli e nipoti, cedono soldi o informazioni personali.

cms_31674/foto_1.jpg

Uno degli strumenti di modifica voce che ha fatto più parlare di se è stato VALL-E di Microsoft, in quanto riuscirebbe a replicare la voce di una persona da un campione di solo 3 secondi. Sin dal suo annuncio all’inizio del 2023, lo scopo dietro al software è sempre stato molto nobile: migliorare la disabilità delle persone attraverso la traduzione da testo a voce. Tuttavia, nonostante non sia ancora stato pubblicamente rilasciato, sono emerse numerose preoccupazioni sul fatto che VALL-E potrebbe trasformarsi in una potenziale minaccia per la privacy e la sicurezza delle vittime. Un esempio di clonazione vocale è accaduto ad Aprile, in Arizona, dove una donna ha ricevuto una chiamata angosciante da un anonimo che affermava di aver rapito sua figlia. Utilizzando gli strumenti basati sull’IA, il criminale era riuscito a replicare la voce e il pianto della bambina in modo così convincente da ingannare la madre.

cms_31674/foto_2.jpg

Fortunatamente, prima di effettuare il pagamento richiesto, la madre ha potuto verificare che sua figlia era al sicuro e che non era stata rapita. La polizia ha successivamente identificato la telefonata come un tentativo di truffa. La Federal Trade Commission degli Stati Uniti ha stimato che nel 2022 le perdite derivanti da queste truffe basate sulla clonazione vocale hanno raggiunto la cifra impressionante di 2,6 miliardi di dollari. Infine, è fondamentale che la società, le istituzioni e gli individui si preparino a fronteggiare nuove minacce come la clonazione vocale. Il cosiddetto “rapimento virtuale” è solo uno dei tanti esempi di come l’intelligenza artificiale possa essere sfruttata in modo malevolo, mettendo a repentaglio la sicurezza e la fiducia delle persone. L’educazione, la consapevolezza e la preparazione sono le chiavi per affrontare con successo questo nuovo panorama digitale.

Data:

5 Settembre 2023