Cerca e trova immobili

MONDOCryptoRom: la nuova frontiera del crimine organizzato

08.08.23 - 16:37
Vengono sfruttate le applicazioni per convincere le vittime a trasferire somme di denaro
Imago
Fonte ATS ANS
CryptoRom: la nuova frontiera del crimine organizzato
Vengono sfruttate le applicazioni per convincere le vittime a trasferire somme di denaro

MILANO - Sono sempre di più gli strumenti figli del famoso chatbot ChatGpt, usati dai criminali per ingannare gli utenti del web. L'ultima frontiera si chiama CryptoRom ed è stata individuata dall'azienda di sicurezza informatica inglese Sophos.

Il cybercrime sfrutta app di appuntamenti, come Tinder, per adescare le vittime e portarle a trasferire somme di denaro, in forma di criptovaluta, su conti terzi. Come ci riescono? I criminali usano la conoscenza dell'intelligenza artificiale generativa e si fingono esperti di investimenti, creando una relazione con i malcapitati.

La fiducia che si instaura, porta i navigatori a scaricare applicazioni farlocche, che fanno da ponte al trasferimento dei fondi. Proprio Sophos, lo scorso maggio, raccontava di tanti truffatori che avevano creato false app che affermavano di basarsi su ChatGpt, e che invece rubavano soldi a chi decideva di abbonarsi a servizi extra non veritieri.

La capacità dei modelli di intelligenza artificiale di rispondere alle domande in modo simile alla maggior parte degli umani pone un nuovo tipo di problema per chi si occupa di sicurezza: la veridicità. Subito dopo il terremoto che ha colpito Siria e Turchia a febbraio, una ricerca della Bbc aveva individuato decine di canali TikTok e post sui social che chiedevano di supportare le persone colpite dal disastro. False immagini e falsi video, creati da software di intelligenza artificiale, accompagnavano gli indirizzi PayPal a cui inviare denaro.

La nuova era della truffa via IA è sui contenuti audio. Un messaggio ricevuto su WhatsApp o su Messenger può far credere davvero che un parente o un amico siano in difficoltà e abbiano bisogno di un aiuto economico.

I ricercatori di McAfee, altra azienda di sicurezza informatica, hanno scoperto che bastano tre secondi ai criminali per replicare la voce di chiunque, inserendo frasi a piacere. «Attraverso l'intelligenza artificiale, il truffatore può fingere di essere il figlio di qualcuno o un altro parente grazie ad un campione della voce reale, che addestra l'IA ad assumere un tono e una cadenza il più vicino possibile all'originale. Alcuni hacker arrivano persino a ricercare informazioni personali per rendere la richiesta più credibile» dicono.

L'IA generativa consente inoltre al cybercrime di avviare nuove campagne di "sextortion" con cui si minaccia di pubblicare online foto e video di nudo, con il volto della vittima, ricreati con programmi oggi popolari. Si sovrappone il viso reale di un individuo al corpo di attori e professionisti, puntando sulla paura che la propria reputazione sia rovinata per sempre, nonostante il contenuto finale si fondi su una falsa verità, artefatta e realizzata al computer.

Entra nel canale WhatsApp di Ticinonline.
COMMENTI
 

Mar 1 anno fa su tio
A mé sembra più d annosa che utile ma é una mia opinione

Mattt 1 anno fa su tio
per ora la AI si sta dimostrando sia utile che dannosa....
NOTIZIE PIÙ LETTE