BBC jornalista Thomas Germain revela uma dura realidade: experimento profundo de falsificação demonstra que ninguém consegue mais provar que não é uma IA.
(Antecedentes: ZachXBT expõe fake news do “fim do mundo”: usando IA para manipular tráfego de guerra, fraudes, memes e lucros de dezenas de milhares de dólares)
(Complemento: Far East Commercial Bank e Ministério Público assinam MOU: 95% do fluxo financeiro de criptomoedas de Taiwan passa a integrar estrutura anti-lavagem e anti-fraude)
Índice do artigo
Alternar
O jornalista Thomas Germain descreveu ontem à noite um experimento perturbador: ligou para sua tia Eleanor, que conhece há toda a vida, e avisou que a próxima chamada poderia ser de uma pessoa real ou de uma IA deepfake.
O resultado: ela não conseguiu distinguir. Germain conclui: se nem mesmo familiares podem saber a verdade, o problema vai além da tecnologia.
Ele perguntou ao professor de ciência forense digital da Universidade da Califórnia, Berkeley, cofundador da GetReal Security, Hany Farid: “O que posso fazer agora para provar que não sou uma IA?” A resposta de Farid foi uma única palavra: Não.
Você está em Nova York, eu estou em Berkeley, fazemos uma videochamada. A realidade é que tudo isso pode estar disfarçado.
Depois, Farid disse algo que arrepia: “Não há como. Acabou (It’s over).”
Germain também cita um caso recente absurdo. Quando o primeiro-ministro de Israel, Netanyahu, publicou um vídeo, a refração da luz fez parecer que sua mão direita tinha um dedo a mais: uma falha clássica na identificação de deepfakes.
Na hora, a internet explodiu: rumores de que ele havia morrido em ataque de mísseis, o vídeo era falso.
Para provar sua inocência, Netanyahu publicou uma segunda e uma terceira vídeo, levantando as mãos em um café, mostrando um a um os dedos corretamente. Germain aponta que Farid posteriormente analisou esses vídeos com reconhecimento de voz, detecção facial quadro a quadro e análise de luz e sombra, concluindo: todos eram autênticos, sem evidências de IA.
Jeremy Carrasco, cofundador da Riddance, também afirmou à BBC: “Seis dedos já não é mais um sinal de IA, as melhores ferramentas corrigiram isso há anos.”
Porém, Germain observa uma ironia: mesmo com respaldo de especialistas, muitas pessoas ainda acreditam que Netanyahu morreu. Ele escreve que talvez seja a primeira vez na história que líderes mundiais são obrigados a provar publicamente que não são IA — e falham.
Germain introduz o conceito de “benefício do mentiroso” definido por pesquisadores: Provar a verdade é caro, criar dúvidas é gratuito. Políticos podem facilmente alegar que um vídeo verdadeiro é deepfake, e refutar essa acusação exige tempo, recursos e credibilidade que custam mais do que espalhar rumores.
Samuel Woolley, presidente do Centro de Estudos de Desinformação da Universidade de Pittsburgh, aponta uma trajetória histórica alarmante: “No início da guerra na Ucrânia, vi deepfakes toscos. Na era de Gaza, conteúdos falsos aumentaram em quantidade e qualidade. Na Venezuela, vi mais conteúdo falso do que verdadeiro. E no Irã, isso atingiu um novo nível.”
Ele também cita políticos que promovem regulações: “Eles estão colhendo o que plantaram.”
Quanto às soluções, Germain chega a uma conclusão surpreendente: os principais especialistas em deepfake, como Farid, sugerem o método mais simples: código secreto.
Farid contou à BBC que ele e sua esposa têm uma senha especial para verificar suspeitas por telefone. É uma forma de autenticação multifator, uma versão interpessoal: quando a tecnologia falha, volta-se à confiança básica.
Embora o foco de Germain seja a crise de confiança social, dados da AARP revelam um impacto financeiro direto: entre 2023 e 2025, fraudes relacionadas à IA aumentaram 20 vezes. A empresa britânica Arup perdeu US$ 25 milhões após um deepfake de seu diretor financeiro em uma videochamada.
O mercado de criptomoedas está ainda mais ameaçado. Segundo a Fintech Global, no primeiro trimestre de 2026, fraudes em criptomoedas atingiram US$ 200 milhões, aumento de 340% ao ano; estima-se que deepfake represente 70% do crime no setor.
Um instrumento que preocupa reguladores é o ProKYC: por apenas US$ 629 anuais, oferece simuladores virtuais, animações faciais e geração de impressões digitais, permitindo criar identidades falsas do zero e burlar sistemas de verificação biométrica de exchanges. O Departamento do Tesouro dos EUA já exige maior regulação na integração de IA e identidades digitais.
Outra mudança potencialmente maior é que agentes de IA podem agora possuir carteiras e iniciar transações autonomamente. Nesse cenário, quem é o cliente: humano ou IA? A definição de KYC pode ficar em vácuo.
Ironicamente, criamos sistemas de verificação para identificar IA, mas ela evolui para escapar deles. E, no final, a única solução que talvez reste seja um velho código secreto entre você e seus entes queridos.
Related Articles
Espiões norte-coreanos visaram o Drift na operação de roubo $285M
Japan Exchange Group prepara o lançamento de um ETF de criptoativos já em 2027
Hackeres norte-coreanos roubam 577 milhões de dólares em cripto nos primeiros quatro meses de 2026, informa a TRM Labs
Pentágono de Olhos no Ambiente do Bitcoin como Ativo Estratégico, diz Hegseth
Bolsa de Criptoativos Grinex esvaziada de 13,7 milhões de dólares em abril de 2026, operações suspensas
Oligarcas russos e bancos estatais lucram 100 mil milhões de dólares+ usando cripto para contornar sanções, Proekt Reports