Anthropic 限制高危模型发布:安全考量还是商业算计?
Anthropic 近日宣布暂缓向公众开放其最新模型 Mythos ,官方理由是这款模型在发现软件安全漏洞方面能力过强,可能被恶意利用。该公司决定仅向亚马逊云服务、摩根大通等运营关键在线基础设施的大型企业和机构提供这一模型。
OpenAI 据称也在评估类似策略,计划为其下一代网络安全工具采取受限发布模式。
表面上看,企业的逻辑清晰:让有能力抵御攻击的主体优先掌握这项技术,赶在潜在攻击者利用大语言模型渗透安全系统之前构建防线。然而“过度强大”这一描述本身或许透露了更多玄机。
AI 网络安全公司 Irregular 首席执行官丹·拉哈夫在 Mythos 发布前接受 TechCrunch 采访时指出,尽管 AI 工具发现漏洞的能力值得肯定,但某个漏洞对攻击者的实际价值取决于多重因素,包括能否与其他漏洞组合利用。“我始终在思考的问题是,这些模型发现的东西在多大程度上真正具有可利用性,无论是单独使用还是形成攻击链。”
Anthropic 表示, Mythos 发现并利用漏洞的能力远超其前代模型 Opus 。但业界对此存在质疑。 AI 网络安全初创公司 Aisle 声称,仅凭规模更小的开源模型就能复现 Anthropic 所描述的大部分成果。 Aisle 团队认为,这一结果说明网络安全领域并不存在某种终极模型,具体效果取决于任务本身。
考虑到 Opus 已被视为网络安全领域的颠覆性产品,限制发布的做法可能还存在另一层动因:帮助头部企业构建竞争优势的飞轮,同时增加竞争对手通过蒸馏技术复制模型的难度。蒸馏是一种利用前沿模型低成本训练新型大语言模型的技术。
初创公司 exe.dev 首席执行官、软件工程师戴维·克劳肖在社交媒体上写道:“这是为了掩盖一个事实——顶级模型现已被企业协议锁定,小型实验室无法再进行蒸馏。等普通用户能用上 Mythos 时,下一个企业专属的顶级版本又将问世。这台跑步机确保企业资金持续流入,而蒸馏公司只能屈居第二梯队。”
这一分析契合当前 AI 生态的格局:前沿实验室竞相开发规模更大、能力更强的模型,而 Aisle 等依赖多模型组合的企业则将开源大语言模型——其中许多据称来自中国并通过蒸馏技术开发——视为获取经济优势的关键路径。
前沿实验室今年以来对蒸馏技术采取了更强硬的立场。 Anthropic 公开披露了所谓中国公司复制其模型的尝试。据彭博社报道, Anthropic 、 Google 和 OpenAI 三大实验室已联手识别蒸馏行为并实施封锁。
蒸馏技术对前沿实验室的商业模式构成威胁,因为它消除了大规模资本投入所赋予的优势。阻止蒸馏本身已是有价值的目标,而选择性发布策略同时为实验室提供了在竞争日趋激烈的市场中差异化企业服务的机会。
Mythos 或任何新模型是否真正威胁互联网安全仍有待观察,审慎的发布策略不失为负责任的做法。 Anthropic 尚未就蒸馏担忧是否影响其决策回应媒体置评请求,但这家公司或许已找到一条既能保护互联网、又能维护自身利益的巧妙路径。
创艺洞察
前沿实验室以“安全”为名限制模型发布,实则构建了一道技术与商业的双重护城河。在开源生态与蒸馏技术蓬勃发展的当下,这种“选择性透明”正在重塑 AI 产业的价值分配格局。谁能获得模型,谁就掌握了下一轮竞争的主动权。


