Changpeng ‘CZ’ Zhao, ex-CEO da Binance, relata vídeo falso com sua voz gerada por IA
Acreditamos na total transparência com nossos leitores. Alguns de nossos conteúdos incluem links de afiliados, e podemos ganhar uma comissão por meio dessas parcerias. No entanto, essa compensação potencial nunca influencia nossas análises, opiniões ou avaliações. Nosso conteúdo editorial é criado de forma independente de nossas parcerias de marketing, e nossas classificações são baseadas exclusivamente em nossos critérios de avaliação estabelecidos. Leia mais

O ex-CEO da Binance, Changpeng ‘CZ’ Zhao, afirmou na quinta-feira (17/04) que se deparou com um vídeo gerado por inteligência artificial que imitava sua voz com tanta precisão que ele próprio não conseguiu distinguir do real.
O conteúdo, compartilhado na rede social X, trazia um dublador de IA falando em mandarim com a aparência e movimentos faciais de Zhao, algo que ele descreveu como ‘assustador’.
A gravação mostra Zhao falando em chinês sobre uma sequência de clipes, imagens geradas por IA e fotos, reacendendo preocupações sobre o uso não autorizado dessa tecnologia para imitar figuras públicas.
O episódio se soma a uma série crescente de casos em que executivos do setor cripto têm suas imagens replicadas por ferramentas generativas, muitas vezes com finalidades fraudulentas.
Mesmo após deixar o comando da Binance em 2023, Zhao continua sendo uma figura influente no setor. Ele já havia alertado anteriormente sobre tentativas de falsificação envolvendo deepfakes.
Em outubro de 2024, por exemplo, ele orientou os usuários a não confiarem em vídeos que solicitassem transferências de criptoativos. Ou seja, Zhao reconheceu que estavam circulando conteúdos alterados usando sua imagem.
Leia também:
Deepfakes e cripto: risco operacional em crescimento
Esse novo vídeo acrescenta uma camada ainda mais preocupante às táticas de falsificação, que evoluíram de imagens estáticas e textos para simulações completas em vídeo. Em 2023, o então diretor de comunicações da Binance, Patrick Hillmann, revelou que golpistas usaram uma simulação de vídeo dele para realizar reuniões com representantes de projetos via Zoom.
Esses vídeos falsos foram montados a partir de anos de entrevistas públicas e aparições online. Como resultado, permitiu-se que os criminosos agendassem chamadas com alvos sob o pretexto de envolvimento oficial da Binance.
A experiência de Zhao indica que a replicação de voz já atingiu níveis comparáveis ao realismo visual. Assim, isto torna a fraude ainda mais sofisticada e eleva os riscos além das redes sociais.
Em fevereiro, por exemplo, a equipe do escritório da Arup em Hong Kong foi enganada e acabou transferindo cerca de US$ 25 milhões durante uma reunião via Microsoft Teams. Os participantes acreditavam estar falando com um executivo financeiro sediado no Reino Unido — mas se tratava de uma simulação por IA.
Clonagem de voz exige cada vez menos dados
As ferramentas de clonagem de voz, antes dependentes de amostras extensas de áudio, agora conseguem operar com gravações muito breves. Softwares como o ElevenLabs, por exemplo, precisam de menos de 60 segundos de áudio para criar uma imitação convincente.
Em janeiro, uma instituição financeira relatou que mais de um quarto dos adultos do Reino Unido acreditam ter sido alvo de golpes envolvendo vozes clonadas nos últimos 12 meses.
O acesso a essas ferramentas também tem se tornado mais barato e acessível. Segundo a empresa de cibersegurança CyFlare, APIs para clonagem de voz podem ser encontradas por apenas US$ 5 em marketplaces da darknet.
Embora versões comerciais contem com marca d’água e exigências de consentimento, alternativas de código aberto ou no mercado negro raramente seguem essas práticas.
União Europeia avança, mas desafios permanecem
A Lei de Inteligência Artificial da União Europeia, aprovada formalmente em março de 2024, exige que rotulem conteúdos gerados por IA, como deepfakes, de forma clara quando exibidos publicamente. No entanto, sua aplicação plena está prevista apenas para 2026, o que cria um intervalo preocupante de exposição até lá.
Enquanto isso, fabricantes de hardware já estão integrando recursos de detecção diretamente nos dispositivos de consumo, como forma de mitigar o impacto dessas tecnologias.
Durante o Mobile World Congress 2025, em Barcelona, foram apresentadas diversas ferramentas que prometem detectar manipulação visual ou de áudio em tempo real.
Embora ainda não estejam disponíveis comercialmente, o objetivo dessas inovações é reduzir a dependência de serviços externos de verificação.
Leia mais:






