Binance avverte: L’intelligenza artificiale può violare la sicurezza KYC
Disclaimer
Siamo fautori di un rapporto basato sulla più totale trasparenza con i nostri lettori. Ed è per questo che teniamo a sottolineare che alcuni dei nostri contenuti potrebbero includere link di affiliazione, da cui poter guadagnare una commissione attraverso queste partnership.Il responsabile della sicurezza di Binance ha messo in guardia contro il rapido progredire della tecnologia Deepfake. La realizzazione di immagini o video falsi ma altamente verosimili sarà la prossima arma dei truffatori crypto per bypassare la verifica dell’identità sugli exchange.
La nuova frontiera dei deepfake per le truffe su exchange crypto
I deepfake sono realizzati con strumenti di intelligenza artificiale che utilizzano l’apprendimento automatico per creare audio, immagini o video estremamente verosimili. Riprodurre le le sembianze di una persona è la nuova frontiera per il cybercrimine.
Sebbene la tecnologia possa essere utilizzata in modo legittimo, può anche essere usata per truffe e frodi.
Intervistato da Cointelegraph, il responsabile della sicurezza di Binance, Jimmy Su, ha dichiarato che aumenta l’uso di questa tecnologia per attuare truffe. In particolare, il deepfake è la nuova via per aggirare la procedura Know Your Customer, KYC, sull’exchange.
“L’hacker cerca online una foto della vittima. A partire da qui, grazie agli strumenti di deepfake, è in grado di produrre video per aggirare la verifica”.
Su ha detto che gli strumenti sono diventati così avanzati che possono anche rispondere correttamente alle istruzioni audio progettate per verificare se il richiedente è un essere umano e possono farlo in tempo reale. “Alcune verifiche richiedono all’utente, ad esempio, di sbattere l’occhio sinistro o di guardare a sinistra o a destra, di alzare o abbassare lo sguardo. I deepfake sono oggi abbastanza avanzati da poter effettivamente eseguire questi comandi”, ha spiegato.
Tuttavia, Su ritiene che la qualità complessiva dei video falsificati non siano ancora tale da poter ingannare la verifica umana.
“Quando guardiamo questi video, ci sono alcuni dettagli rilevabili dall’occhio umano”, ad esempio quando l’utente deve girare la testa di lato, ha detto Su. C’è poco da stare allegri, però, Su è certo che “L’intelligenza artificiale si migliorerà con il tempo”.
Quanto è pericoloso il deepfake
Lo scorso agosto, il responsabile delle comunicazioni di Binance, Patrick Hillmann, ha avvertito che un “sofisticato team di hacker” stava utilizzando le sue precedenti interviste e apparizioni televisive per creare una suo versione “deepfake”.
La versione “deepfake” di Hillmann è stata poi usata in incontri online su Zoom coi team dei progetti crypto a cui veniva promessa la quotazione dei token in cambio di un pagamento.
“È un problema molto difficile da risolvere”, ha dichiarato Su, quando gli è stato chiesto come combattere questi attacchi.
“Anche se possiamo controllare i nostri video, ci sono video là fuori che non sono di nostra proprietà. Quindi una via, ancora una volta, è l’educazione degli utenti”.
Binance ha in programma di pubblicare una serie di post sul blog per informare gli utenti sui metodi di gestione del rischio.
In un primo post, con una sezione sulla cybersicurezza, Binance ha dichiarato di utilizzare l’IA e gli algoritmi di apprendimento automatico per i propri scopi, tra cui il rilevamento di modelli di accesso e transazioni insoliti e altre “attività anomale sulla piattaforma”.
___
Leggi anche:
- yPredict: il progetto blockchain con AI che svela le crypto pronte a esplodere!
- Criptovalute con il maggior rialzo nel 2023. 16 crypto in forte rialzo
Segui Cryptonews Italia sui canali social






