
Nang ilunsad ng Anthropic ang Claude Mythos noong nakaraang buwan, isinara nito ang modelo sa likod ng isang sinuring koalisyon ng mga higante sa teknolohiya at inilarawan ito bilang isang bagay na masyadong mapanganib para sa publiko. Nagpatawag ng emergency meeting sina Treasury Secretary Scott Bessent at Fed Chair Jerome Powell kasama ang mga CEO ng Wall Street. Muling lumabas ang salitang "vulnpocalypse" sa mundo ng seguridad.
At ngayon, mas pinakomplikado pa ng isang pangkat ng mga mananaliksik ang naratibong iyon.
Ginaya ng Vidoc Security ang sariling na-patch na pampublikong halimbawa ng Anthropic at sinubukang kopyahin ang mga ito gamit ang GPT-5.4 at Claude Opus 4.6 sa loob ng isang open-source coding agent na tinatawag na opencode. Walang imbitasyon sa Glasswing. Walang pribadong access sa API. Walang internal stack ng Anthropic.
"Kinopya namin ang mga natuklasan ng Mythos sa opencode gamit ang mga pampublikong modelo, hindi ang pribadong stack ng Anthropic," isinulat ni Dawid Moczadło, isa sa mga mananaliksik na kasama sa eksperimento, sa X matapos ilathala ang mga resulta. “Ang mas mahusay na paraan upang basahin ang paglabas ng Mythos ng Anthropic ay hindi 'isang lab ang may magical na modelo.' Ito ay: nagbabago ang ekonomiya ng pagtuklas ng kahinaan.”
We replicated Mythos findings in opencode using public models, not Anthropic's private stack.
The moat is moving from model access to validation: finding vulnerability signal is getting cheaper; turning it into trusted security
A better way to read Anthropic's Mythos release is… https://t.co/0FFxrc8Sr1 pic.twitter.com/NjqDhsK1LA
— Dawid Moczadło (@kannthu1) April 16, 2026
Ang mga kaso na kanilang tinarget ay ang parehong mga itinampok ng Anthropic sa mga pampublikong materyales nito: isang server file-sharing protocol, ang networking stack ng isang security-focused OS, ang video-processing software na naka-embed sa halos bawat media platform, at dalawang cryptographic library na ginagamit upang i-verify ang mga digital na pagkakakilanlan sa buong web.
Parehong GPT-5.4 at Claude Opus 4.6 ang nakakopya ng dalawang kaso ng bug sa lahat ng tatlong pagtakbo. Si Claude Opus 4.6 din ay nakapag-isa na natuklasan muli ang isang bug sa OpenBSD nang tatlong beses nang diretso, habang si GPT-5.4 ay nakakuha ng zero sa isang iyon. Ang ilang mga bug (isa na kinasasangkutan ng FFmpeg library upang magpatakbo ng mga video at isa pa na kinasasangkutan ng pagpoproseso ng mga digital na lagda gamit ang wolfSSL) ay bumalik nang bahagya—ibig sabihin, natuklasan ng mga modelo ang tamang code surface ngunit hindi natukoy ang tiyak na ugat ng problema.
Bawat scan ay nanatili sa ibaba ng $30 bawat file, ibig sabihin ay nakahanap ang mga mananaliksik ng parehong mga kahinaan tulad ng Anthropic habang gumagastos ng mas mababa sa $30 upang gawin ito.
"Ang mga modelo ng AI ay sapat na mahusay upang paliitin ang espasyo ng paghahanap, magpakita ng totoong lead, at kung minsan ay makuha ang buong ugat ng problema sa battle-tested code," sabi ni Moczadło sa X.
Ang daloy ng trabaho na ginamit nila ay hindi isang one-shot prompt. Ginaya nito ang inilarawan mismo ng Anthropic sa publiko: bigyan ang modelo ng isang codebase, hayaan itong galugarin, i-parallelize ang mga pagtatangka, i-filter para sa signal. Binuo ng pangkat ng Vidoc ang parehong arkitektura gamit ang open tooling. Hinati ng isang planning agent ang bawat file sa mga chunk. Isang hiwalay na detection agent ang tumakbo sa bawat chunk, pagkatapos ay sinuri ang iba pang mga file sa repo upang kumpirmahin o ibasura ang mga natuklasan.
Ang mga saklaw ng linya sa loob ng bawat detection prompt—halimbawa, "focus on lines 1158-1215"—ay hindi pinili ng mga mananaliksik nang manu-mano. Ang mga ito ay mga output mula sa nakaraang hakbang ng pagpaplano. Ginawang explicit ito ng blog post: "Nais naming maging explicit tungkol doon dahil ang chunking strategy ang humuhubog sa kung ano ang nakikita ng bawat detection agent, at ayaw naming ipakita ang daloy ng trabaho bilang mas manu-manong na-curate kaysa sa kung ano ito."
Hindi sinasabi ng pag-aaral na ang mga pampublikong modelo ay tumutugma sa Mythos sa lahat ng bagay. Ang modelo ng Anthropic ay lumampas pa sa pagtukoy lamang sa bug ng FreeBSD—bumuo ito ng isang gumaganang attack blueprint, inalam kung paano maaaring pagdugtung-dugtungin ng isang umaatake ang mga fragment ng code sa maraming network packet upang makuha ang buong kontrol ng makina nang malayuan. Natukoy ng mga modelo ng Vidoc ang depekto. Hindi sila gumawa ng sandata. Doon nakaupo ang tunay na agwat: hindi sa paghahanap ng butas, kundi sa pag-alam kung paano dumaan dito.
Ngunit ang argumento ni Moczadło ay hindi talaga na ang mga pampublikong modelo ay pantay na makapangyarihan. Ito ay na ang mamahaling bahagi ng daloy ng trabaho ay magagamit na ngayon sa sinumang may API key: "Ang moog ay lumilipat mula sa access sa modelo patungo sa pagpapatunay: ang paghahanap ng signal ng kahinaan ay nagiging mas mura; ang paggawa nito sa pinagkakatiwalaang trabaho sa seguridad ay mahirap pa rin."
Kinilala ng sariling ulat ng kaligtasan ng Anthropic na ang Cybench, ang benchmark na ginamit upang sukatin kung ang isang modelo ay nagdudulot ng seryosong cyber risk, "ay hindi na sapat na nagbibigay-impormasyon tungkol sa kasalukuyang mga kakayahan ng modelong nasa hangganan" dahil nalampasan ito ng Mythos nang buo. Tinantya ng lab na ang maihahambing na kakayahan ay kumalat mula sa iba pang mga lab ng AI sa loob ng anim hanggang 18 buwan.
Iminumungkahi ng pag-aaral ng Vidoc na ang panig ng pagtuklas ng equation na iyon ay magagamit na sa labas ng anumang nakasarang programa. Ang kanilang buong prompt excerpt, model outputs, at methodology appendix ay inilathala sa opisyal na site ng lab.