Um modelo pequeno também pode identificar vulnerabilidades de cibersegurança detetadas pela deteção de Claude Mythos? AISLE: a muralha de proteção está no sistema, não no modelo

A startup de cibersegurança AISLE usa um modelo pequeno de 3,6B parâmetros, a apenas 0,11 dólares por cada milhão de tokens, para reproduzir parte das demonstrações centrais do sistema flagship de cibersegurança da Anthropic, Mythos. Os limites das capacidades de cibersegurança com IA são mais “irregulares” do que imagina.

(Resumo: Quando a Anthropic lançou o Mythos, seria o momento de uma bomba nuclear para a DeFi?)
(Informação de contexto: O Mythos da Anthropic é tão forte que força uma reunião de emergência: Bessent, Powell convocam a Citi, Goldman Sachs, Bank of America, JPMorgan e outras, cinco bancos focam-se nos riscos financeiros)

Sumário

Toggle

  • O que o Mythos demonstra e o que o modelo pequeno volta a reproduzir?
  • Por que modelos maiores não significam sistemas mais seguros
  • Onde está (e onde não está) a vantagem competitiva

A Anthropic publicou esta semana o modelo ainda não disponibilizado publicamente Claude Mythos Preview e, em simultâneo, lançou o Project Glasswing (Plano Asa de Vidro), um projecto que conta com 12 empresas tecnológicas, incluindo Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., para realizar investigação defensiva de cibersegurança com esse modelo.

Como o Mythos, alegadamente, encontra de forma autónoma milhares de vulnerabilidades zero-day em cada sistema operativo principal e em navegadores (zero-day vulnerability, ou seja, falhas de segurança que ainda não foram corrigidas e que mesmo os fornecedores podem não conhecer), sugere-se que se está a abrir uma nova era de defesa em cibersegurança dominada por IA.

No entanto, menos de uma semana depois, a startup de cibersegurança AISLE, co-fundada por um antigo investigador da DeepMind e pela equipa da Anthropic, Stanislav Fort, publicou um relatório sistemático no blog técnico da empresa.

Conclusão central, directa: na tarefa de demonstração flagship do Mythos, um modelo pequeno open source com apenas 3,6B parâmetros activos, custando 0,11 dólares por milhão de tokens, atinge os mesmos resultados de detecção de vulnerabilidades.

O que o Mythos demonstra e o que o modelo pequeno volta a reproduzir?

A AISLE desenhou três conjuntos de testes, cada um correspondente a tarefas de cibersegurança com diferentes níveis de dificuldade e naturezas.

Primeiro conjunto: testes de falso positivo do OWASP (Open Web Application Security Project).

Traduzido: trata-se de um pequeno excerto de código de consulta Java SQL que parece uma Injection SQL (ataque de injeção na base de dados), mas que, na realidade, está logicamente isento de falhas de segurança. A resposta correcta é “não é uma vulnerabilidade”.

Os resultados mostram um efeito de scaling quase inverso (efeito de escalabilidade em sentido contrário): o modelo open source pequeno GPT-OSS-20b (3,6B parâmetros activos, $0.11/M tokens) rastreou correctamente a lógica do programa e concluiu que era inofensivo.

Pelo contrário, o Claude Sonnet 4.5, toda a série GPT-4.1/5.4 (excepto o o3 e o pro), toda a série da Anthropic até ao Opus 4.5, foram todos marcados com confiança como vulnerabilidades de alto risco. Apenas um número muito reduzido de modelos de topo — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — acertou.

Segundo conjunto: vulnerabilidade do FreeBSD NFS, a CVE-2026-4747 destacada especialmente na divulgação flagship do Mythos, uma falha de execução remota de código não autorizado com 17 anos de história.

Resultado: os 8/8 modelos testados detectaram-na com sucesso, incluindo o modelo pequeno com 3,6B parâmetros activos. Todos os modelos identificaram correctamente stack buffer overflow (overflow do buffer da stack), calcularam o espaço restante e avaliaram-no como Critical RCE.

A conclusão da AISLE é: esta capacidade de detecção já foi “comercializada”.

Terceiro conjunto: vulnerabilidade do OpenBSD SACK (27 anos de história), que exige raciocínio matemático mesmo: rastrear uma cadeia lógica multi-etapas de overflow de inteiro com sinal (signed integer overflow), isto é, uma cadeia de lógica com números “com sinal”.

A dificuldade sobe de forma acentuada e a performance dos modelos diverge. O GPT-OSS-120b (5,1B parâmetros activos) reproduz integralmente a cadeia de exploração; a AISLE classifica como A+; a versão open source Kimi K2 obtém A-; já o Qwen3 32B dá uma conclusão errada de “o código é robusto” e recebe F.

Mesmo nesta tarefa mais difícil, um modelo open source com custos muito baixos consegue alcançar a mesma demonstração do sistema flagship.

Por que modelos maiores não significam sistemas mais seguros

O verdadeiro argumento deste relatório não é “os modelos pequenos chegam”, mas sim que a estrutura das capacidades de cibersegurança com IA é muito mais complexa do que o público imagina.

A AISLE decompõe o pipeline de IA para cibersegurança em cinco subtarefas independentes:

  • varrimento de amplo espectro (broad scanning)
  • detecção de vulnerabilidades (vulnerability detection)
  • validação por triagem (triage and validation)
  • geração de patches (patch generation)
  • construção de exploração de vulnerabilidades (exploit construction)

A natureza de scaling de cada subtarefa é diferente, assim como as capacidades do modelo necessárias. O anúncio do Mythos integra estas cinco camadas num único sistema completo, mas, na prática, as necessidades dos modelos entre elas são muito diferentes: algumas subtarefas já se encontram totalmente saturadas com 3,6B parâmetros, enquanto outras exigem capacidades de raciocínio complexo.

Isto ecoa o conceito “Jagged Frontier” (fronteira irregular) proposto em 2023 por investigadores da Harvard Business School, Dell’Acqua e outros, incluindo Mollick: os limites das capacidades de IA não são uma curva suave, mas sim uma espécie de serra em forma de “dentes”, com concavidades e convexidades; em algumas tarefas, ficam muito acima dos humanos, mas em tarefas adjacentes revelam uma fragilidade inesperada.

O estudo mostra que, se os utilizadores implantarem IA dentro do limite de capacidade, a produtividade melhora cerca de 40%; se a estenderem imprudentemente para além do limite, o desempenho diminui 19%.

Dentro deste quadro, a AISLE apresenta uma inferência mais operacional: “Mil detetives suficientes para o trabalho procuram em todo o lado, em vez de um detetive genial adivinhar onde procurar, conseguem encontrar mais vulnerabilidades.”

Uma implementação maciça de modelos de baixo custo para varrimento de amplo espectro pode, em termos globais, superar a abordagem de um agendamento prudente com um único modelo caro. A AISLE afirma que, desde meados de 2025, já executa um sistema de descoberta de vulnerabilidades em objectivos reais: encontraram 15 CVE no OpenSSL (sendo que uma única versão de segurança inclui 12, com CVSS 9,8 Critical), 5 no curl e mais de 180 CVE de validação externa em mais de 30 projectos.

Onde está (e onde não está) a vantagem competitiva

Esta análise para a Anthropic não constitui nem uma crítica abrangente, nem um mero endosso.

A AISLE afirma claramente que o significado do Mythos é demonstrar que a categoria “cibersegurança com IA” é real: não é apenas um conceito em experiências de laboratório, mas um sistema que pode funcionar em objectivos reais. O que a Anthropic está a fazer é maximizar a “densidade de inteligência por token”, o que ainda mantém um valor difícil de substituir em tarefas que exigem raciocínio profundo.

Mas a AISLE também aponta um problema mais fundamental para toda a indústria: a vantagem competitiva está no sistema, não no próprio modelo.

Na área de cibersegurança, a AISLE considera que o verdadeiro factor de diferenciação está em designs de arquitectura que incorporam conhecimento profundo especializado, por exemplo: como decompor tarefas, como agendar modelos com custos diferentes entre subtarefas e como manter a confiança dos responsáveis pela manutenção no ambiente de produção.

Um sistema que consegue encontrar vulnerabilidades com CVSS 9,8 dentro do OpenSSL, e um sistema que detecta vulnerabilidades conhecidas do tipo “padrão” numa demonstração controlada, não precisam apenas de um modelo mais forte, mas sim de uma lógica de engenharia completamente diferente.

Em suma, o relatório da AISLE conclui que modelos mais baratos e mais abertos já conseguem reproduzir parte das suas demonstrações centrais. O verdadeiro problema talvez não seja qual modelo é o mais forte, mas sim quem consegue primeiro fazer correr, em ambiente de produção, a arquitectura das cinco sub-tarefas.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Nvidia investe na nova empresa de tecnologia jurídica em IA da Suécia, a Legora, com Jude Law como embaixador global da marca

A Nvidia fez um investimento de ampliação da Série D na Legora no valor de 50 milhões de dólares, elevando o total angariado da Legora para 600 milhões de dólares, com uma avaliação de 5,6 mil milhões de dólares. A Atlassian, Adams Street Partners e Insight Partners participaram. A Legora foca-se em tecnologia jurídica de IA, disponibilizando ferramentas como revisão automatizada, análise de contratos e pesquisa jurídica. O ARR ultrapassa 100 milhões de dólares e o número de colaboradores cresceu de 40 para 400. Jude Law tornou-se embaixador de marca global e o slogan publicitário é “Law just got more attractive”.

ChainNewsAbmedia25m atrás

A Anthropic abre o beta de segurança do Claude para utilizadores empresariais a 1 de maio

De acordo com a BlockBeats, a 1 de maio a Anthropic anunciou que o Claude Security, uma ferramenta de segurança de código, abriu testes em beta públicos para utilizadores do Claude Enterprise. A ferramenta analisa repositórios de código em busca de vulnerabilidades de segurança, realiza uma verificação secundária para reduzir os falsos positivos e executa automaticamente a verificação de

GateNews30m atrás

A agência de trabalho dos EUA lança um portal de aprendizes de IA para ajudar as empresas a formarem talentos

A Administração do Trabalho dos EUA lançou esta semana, no âmbito da Semana Nacional dos Aprendizes, um portal de aprendizes com IA, disponibilizando recursos de formação “tudo-em-um”. Ao utilizar um quadro de literacia em IA, converte a aprendizagem em competências práticas, com módulos específicos para várias indústrias e percursos flexíveis. A iniciativa visa ajudar as empresas a integrar a formação em IA nos programas de aprendizes registados, aumentando o talento e a competitividade do setor.

ChainNewsAbmedia54m atrás

X lança plataforma de anúncios com IA reconstruída em abril de 2026, a maior remodelação em 20 anos

De acordo com a X, a plataforma iniciou um lançamento faseado de uma plataforma de anúncios reestruturada em abril de 2026. A medida representa a maior remodelação do seu sistema de publicidade em aproximadamente 20 anos, à medida que a empresa transfere mais das suas ferramentas publicitárias para IA. O novo Gestor de Anúncios utiliza segmentação e ordenação baseadas em IA com base em

GateNews1h atrás

Intel dispara 114% em abril com fortes resultados e otimismo com a IA

De acordo com a CNBC, as ações da Intel dispararam 114% em abril, assinalando o seu melhor mês de sempre, impulsionadas por resultados trimestrais mais fortes e pela renovada confiança dos investidores na sua recuperação relacionada com a IA. As ações subiram 24% a 24 de abril depois de o CEO, Lip-Bu Tan, ter anunciado que a receita trimestral aumentou mais de 7%, enquanto

GateNews2h atrás

A Marathon Digital Holdings vai adquirir a Long Ridge Energy por 1,5 mil milhões de dólares para uma expansão de centro de dados de IA

A Marathon Digital Holdings está a adquirir a Long Ridge Energy por 1,5 mil milhões de dólares para expandir a sua capacidade de centros de dados de IA. O acordo inclui uma central de energia a gás natural de 505 MW e 1.600 acres de terreno em Ohio, disponibilizando mais de 1 GW de capacidade de energia para suportar a futura infraestrutura de IA e de TI

GateNews2h atrás
Comentar
0/400
Nenhum comentário