Crimes cibernéticos podem ser o único trabalho que a IA não está assumindo, sugere estudo

Resumidamente

  • Pesquisadores de Cambridge, Edimburgo e Strathclyde analisaram 97.895 tópicos de fóruns de cybercrime publicados após o lançamento do ChatGPT.
  • Ferramentas de “Dark AI” como WormGPT geraram burburinho cultural, mas produziram quase nenhuma malware funcional, enquanto chatbots com jailbreak estão cada vez mais difíceis de manter funcionando por mais de alguns dias.
  • O maior crime mensurável impulsionado por IA não é hacking. É spam de SEO em massa, golpes românticos e nudes gerados por IA vendidos por um dólar cada.

Por três anos, empresas de cibersegurança, governos e laboratórios de IA alertaram que a IA generativa desencadearia uma nova geração de hackers supercarregados. Segundo um novo artigo acadêmico que realmente investigou, os hackers supercarregados usam principalmente ChatGPT para escrever spam e gerar nudes por diversão. O estudo, intitulado Complexo Autônomo ou Vibercrime?, foi publicado no arXiv por pesquisadores de Cambridge e outras universidades e tem como objetivo entender como o underground do cybercrime está realmente adotando a IA, não como os fornecedores de cibersegurança dizem que está. “Apresentamos aqui uma das primeiras tentativas de estudo empírico de métodos mistos sobre os padrões iniciais de adoção de GenAI no underground do cybercrime,” escreveram os pesquisadores.

A equipe analisou 97.895 tópicos de fóruns publicados após o lançamento do ChatGPT em novembro de 2022, extraídos do conjunto de dados CrimeBB do Cambridge Cybercrime Centre, que cobre fóruns underground e da dark web. Eles realizaram modelos de tópicos, leram manualmente mais de 3.200 tópicos e se imergiram etnograficamente na cena.  A conclusão não é favorável à comunidade do apocalipse da IA: 97,3% dos tópicos na amostra foram classificados como “outros,” ou seja, não tratavam realmente do uso de IA para crime. Apenas 1,9% envolviam alguém usando ferramentas de vibe coding. ‘Nada mais do que um ChatGPT sem restrições’ Lembra do WormGPT, FraudGPT e a onda de chatbots supostamente maliciosos que inundaram as manchetes em 2023? Os dados dos fóruns contam uma história diferente.

A maioria das postagens sobre produtos de “Dark AI”, descobriram os pesquisadores, eram pessoas pedindo acesso gratuito, especulação ociosa e reclamações de que as ferramentas não funcionavam de fato. Um desenvolvedor de um serviço popular de Dark AI acabou admitindo aos membros do fórum que o produto era um exercício de marketing. “No final do dia, [CybercrimeAI] não passa de um ChatGPT sem restrições,” escreveu o desenvolvedor, antes do projeto ser encerrado. “Qualquer pessoa na internet pode usar uma técnica de jailbreak bem conhecida e obter resultados iguais, se não melhores.” Até o final de 2024, os pesquisadores dizem, os jailbreaks para modelos mainstream se tornaram descartáveis. A maioria para de funcionar em uma semana ou menos. Modelos de código aberto podem ser jailbreakados indefinidamente, mas são lentos, consomem muitos recursos e estão congelados no tempo. “Barreiras para sistemas de IA estão se mostrando úteis e eficazes,” concluem os autores, em uma descoberta que eles próprios chamam de contraintuitiva para um artigo crítico. Vibe coding é real. Vibe hacking, na maior parte, não O artigo aborda diretamente o relatório amplamente divulgado da Anthropic de agosto de 2025, que afirmava que o Claude Code tinha sido usado para uma campanha de extorsão de “vibe hacking” contra 17 organizações. Os dados da equipe de Cambridge simplesmente não mostram esse padrão no underground mais amplo. Nos fóruns estudados, assistentes de codificação de IA estão sendo usados da mesma forma que desenvolvedores mainstream usam: como autocomplete e substitutos do Stack Overflow para programadores já habilidosos. Ator de baixa habilidade fica com scripts pré-fabricados, porque eles funcionam. Os pesquisadores descobriram que até hackers não confiam totalmente em suas ferramentas de hacking com vibe coding. “A codificação assistida por IA é uma faca de dois gumes. Acelera o desenvolvimento, mas também aumenta riscos como código inseguro e vulnerabilidades na cadeia de suprimentos,” disse um usuário em um fórum monitorado pelos pesquisadores. Outro alertou sobre perda de habilidade a longo prazo: “Está claro agora que usar IA para código causa uma degradação muito rápida das suas habilidades,” escreveu um hacker em um fórum, “Se seu objetivo é apenas criar golpes SaaS e você não se importa com a qualidade/segurança/desempenho do código, pode ser viável fazer vibe code. (Também parece viável para phishing).”

Isso contrasta fortemente com previsões alarmistas da Europol, que alertaram em 2025 que IA totalmente autônoma poderia um dia controlar redes criminosas. Onde a IA realmente ajuda criminosos A disrupção, quando ocorre, está na base da cadeia alimentar. Golpistas de SEO usam LLMs para produzir spam em massa em blogs para tentar recuperar receita de anúncios em declínio. Fraudes românticas e operadores de eWoring estão adicionando clonagem de voz e geração de imagens. Estelionatários de enriquecimento rápido estão produzindo eBooks escritos por IA para vender por $20 cada. O mercado mais perturbador que os pesquisadores encontraram envolvia serviços de geração de imagens nuas. Um operador anunciou: “Sou capaz de fazer qualquer garota nua com IA… 1 foto = $1, 10 fotos = $8, 50 fotos = $40, 90 fotos = $75.” Nada disso é crime cibernético sofisticado. É a mesma atividade de baixo lucro, alto volume, que alimentou a indústria de spam por duas décadas, agora rodando com ferramentas um pouco melhores. A observação final dos pesquisadores é a mais contundente. A maior forma de a IA perturbar o ecossistema do cybercrime, sugerem, pode não ser tornando os criminosos mais capazes. Pode ser empurrando desenvolvedores demitidos de empresas legítimas para o underground em busca de trabalho. “Nos últimos meses, a ansiedade sobre a disrupção no mercado de trabalho por essas ferramentas tem aumentado precipitadamente,” diz o documento. “Isso pode acabar sendo a forma mais importante pela qual as ferramentas de IA generativa perturbam o ecossistema do cybercrime—demissões em massa, recessão econômica e um mercado de trabalho frio empurrando desenvolvedores legítimos, mais habilidosos, para comunidades underground de esquemas de enriquecimento rápido, fraudes e cybercrime.”

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar