Anthropic 发布了一款专用于网络安全研究的人工智能模型 Claude Mythos Preview ,能够自主发现零日漏洞并构建相关利用代码。这款模型已在 OpenBSD 、 FFmpeg 和 Linux 内核中发现严重安全问题,相关漏洞均已上报并修复。
Claude Mythos Preview 目前仅向 Project Glasswing 计划的合作方开放测试,合作方包括思科、 AWS 、微软、 CrowdStrike 、摩根大通和 Google 等科技与安全领域头部企业。用户可通过 Claude API 、亚马逊 Bedrock 、 Google Cloud Vertex AI 和微软 Foundry 获取该模型的使用权限,开源项目维护者可申请加入 Claude for Open Source 计划获取访问权限。
出于安全考量,该模型暂无面向公众开放的计划。 Anthropic 转而向合作伙伴和开源社区提供总计 1 亿美元的模型使用额度,并向多个安全基金会提供定向捐赠。
技术基准测试显示, Claude Mythos Preview 在自主代码编写和零日漏洞发现任务上的表现较前代模型 Claude Opus 4.6 有显著提升。 Anthropic 表示已与政府部门和行业机构展开接触,旨在为高能力人工智能系统在网络防御领域的部署建立安全标准和最佳实践框架。
编辑观察
Anthropic 此举标志着 AI 安全研究从被动防御向主动猎取的范式转变。一亿美元的使用额度看似慷慨,实则是将高风险能力锁定在可控生态内的精妙筹码。当行业头部企业成为“白帽盟友”,监管压力与市场力量的双重约束便自然形成。然而这把双刃剑的另一面在于,一旦模型使用边界模糊,其造成的破坏力同样不可低估。


