
Quando a Anthropic revelou o Claude Mythos no início deste mês, ela trancou o modelo por trás de uma coalizão verificada de gigantes da tecnologia e o enquadrou como algo perigoso demais para o público. O Secretário do Tesouro, Scott Bessent, e o Presidente do Fed, Jerome Powell, convocaram uma reunião de emergência com CEOs de Wall Street. A palavra "vulnapocalipse" ressurgiu nos círculos de segurança.
E agora uma equipe de pesquisadores complicou ainda mais essa narrativa.
A Vidoc Security pegou os próprios exemplos públicos corrigidos da Anthropic e tentou reproduzi-los usando GPT-5.4 e Claude Opus 4.6 dentro de um agente de codificação de código aberto chamado opencode. Sem convite Glasswing. Sem acesso à API privada. Sem a pilha interna da Anthropic.
"Nós replicamos as descobertas do Mythos no opencode usando modelos públicos, não a pilha privada da Anthropic", escreveu Dawid Moczadło, um dos pesquisadores envolvidos no experimento, no X após publicar os resultados. “Uma maneira melhor de interpretar o lançamento do Mythos da Anthropic não é ‘um laboratório tem um modelo mágico’. É: a economia da descoberta de vulnerabilidades está mudando.”
We replicated Mythos findings in opencode using public models, not Anthropic's private stack.
The moat is moving from model access to validation: finding vulnerability signal is getting cheaper; turning it into trusted security
A better way to read Anthropic's Mythos release is… https://t.co/0FFxrc8Sr1 pic.twitter.com/NjqDhsK1LA
— Dawid Moczadło (@kannthu1) April 16, 2026
Os casos que eles visaram foram os mesmos que a Anthropic destacou em seus materiais públicos: um protocolo de compartilhamento de arquivos de servidor, a pilha de rede de um sistema operacional focado em segurança, o software de processamento de vídeo incorporado em quase todas as plataformas de mídia, e duas bibliotecas criptográficas usadas para verificar identidades digitais na web.
Tanto o GPT-5.4 quanto o Claude Opus 4.6 reproduziram dois casos de bug em todas as três execuções cada. O Claude Opus 4.6 também redescobriu independentemente um bug no OpenBSD três vezes seguidas, enquanto o GPT-5.4 obteve zero nesse. Alguns bugs (um envolvendo a biblioteca FFmpeg para executar vídeos e outro envolvendo o processamento de assinaturas digitais com wolfSSL) voltaram parciais – o que significa que os modelos encontraram a superfície de código correta, mas não identificaram a causa raiz precisa.
Cada varredura ficou abaixo de US$ 30 por arquivo, o que significa que os pesquisadores conseguiram encontrar as mesmas vulnerabilidades que a Anthropic, gastando menos de US$ 30 para fazê-lo.
"Os modelos de IA já são bons o suficiente para estreitar o espaço de busca, identificar pistas reais e, às vezes, recuperar a causa raiz completa em código testado em batalha", disse Moczadło no X.
O fluxo de trabalho que eles usaram não foi um prompt único. Ele espelhou o que a própria Anthropic descreveu publicamente: dar ao modelo uma base de código, deixá-lo explorar, paralelizar tentativas, filtrar por sinal. A equipe da Vidoc construiu a mesma arquitetura com ferramentas de código aberto. Um agente de planejamento dividiu cada arquivo em blocos. Um agente de detecção separado executou cada bloco e, em seguida, inspecionou outros arquivos no repositório para confirmar ou descartar as descobertas.
Os intervalos de linhas dentro de cada prompt de detecção — por exemplo, "focar nas linhas 1158-1215" — não foram escolhidos manualmente pelos pesquisadores. Eles foram saídas da etapa de planejamento anterior. A postagem do blog torna isso explícito: "Queremos ser explícitos sobre isso porque a estratégia de divisão em blocos molda o que cada agente de detecção vê, e não queremos apresentar o fluxo de trabalho como mais manualmente selecionado do que realmente foi."
O estudo não afirma que os modelos públicos se equiparam ao Mythos em tudo. O modelo da Anthropic foi além de apenas detectar o bug do FreeBSD — ele construiu um projeto de ataque funcional, descobrindo como um atacante poderia encadear fragmentos de código através de múltiplos pacotes de rede para obter controle total da máquina remotamente. Os modelos da Vidoc encontraram a falha. Eles não construíram a arma. É aí que reside a verdadeira lacuna: não em encontrar o buraco, mas em saber exatamente como percorrê-lo.
Mas o argumento de Moczadło não é realmente que os modelos públicos são igualmente poderosos. É que a parte cara do fluxo de trabalho agora está disponível para qualquer pessoa com uma chave de API: "A barreira está se movendo do acesso ao modelo para a validação: encontrar o sinal de vulnerabilidade está ficando mais barato; transformá-lo em trabalho de segurança confiável ainda é difícil."
O próprio relatório de segurança da Anthropic reconheceu que o Cybench, o benchmark usado para medir se um modelo representa um sério risco cibernético, "não é mais suficientemente informativo sobre as capacidades atuais dos modelos de fronteira" porque o Mythos o superou completamente. O laboratório estimou que capacidades comparáveis se espalhariam de outros laboratórios de IA dentro de seis a 18 meses.
O estudo da Vidoc sugere que o lado da descoberta dessa equação já está disponível fora de qualquer programa restrito. Seus trechos completos de prompt, saídas de modelo e apêndice de metodologia estão publicados no site oficial do laboratório.