可解释性研究:拆解大语言模型的思维黑箱
Anthropic 旗下的可解释性研究团队( Interpretability )致力于揭示大型语言模型的内部运作机制。团队成员克里斯·奥拉赫表示,理解神经网络是评估其安全性的前提条件,而可解释性研究的终极目标,是能够对大语言模型的行为进行详细解释,并以此为基础解决偏见、滥用以及自主有害行为等多类问题。
该团队采用跨学科研究路径。成员背景涵盖机器学习、天文学、物理学、数学、生物学及数据可视化等领域,其中一位成员被业界认为开启了机制可解释性( mechanistic interpretability )这一研究方向,另一位则参与了著名的扩展定律( Scaling Laws )论文工作。
追踪大语言模型的思维轨迹
研究团队开发了电路追踪( circuit tracing )技术,能够观察 Claude 智能体的思考过程。研究发现,在语言生成之前存在一个共享的概念空间,推理在这一阶段完成后再被翻译成语言输出,这意味着模型可以在一种语言中学习知识并将其应用于另一种语言。
关于模型自我认知能力的探索同样取得进展。研究团队通过实验发现, Claude 智能体具备访问并报告自身内部状态的有限能力,这种有限的自我内省功能为理解模型内部运作机制提供了新的视角。
此外,团队还提出了“人格向量”( persona vectors )概念。 AI 模型将人格特质以神经网络激活模式的形式进行表征,通过提取如谄媚、幻觉等特质的向量,可以监测模型人格变化并缓解不良行为。
这一研究方向可追溯至团队 2022 年发表的“玩具超级位置模型”( Toy Models of Superposition )论文,该论文揭示了神经网络如何在有限维度中表示超过维度的特征数量,即多个概念被压缩到单个神经元中。
近期学术成果
2026 年 4 月,团队发表了关于大语言模型情感概念及其功能的研究。 2026 年 3 月,一款用于发现新模型行为差异的“diff”工具正式开源。 2026 年 1 月,关于大语言模型人格轴向定位与稳定的研究进一步深化了对模型特征控制的理解。
2025 年 10 月发布的大语言模型自我内省迹象研究、 2025 年 8 月发表的人格向量研究,以及 2025 年 3 月公开的思维追踪技术,共同构成了该团队近年的核心产出。
其他合作项目包括 2025 年 3 月与对齐团队联合开展的语言模型隐藏目标审计研究,以及 2024 年 10 月与社会影响团队合作的特征导向 mitigation 社会偏见案例研究。
创艺洞察
可解释性研究正从“描述性理解”向“预测性控制”跃迁。以人格向量为例,当研究者能够提取并操作模型的特定激活模式时,传统的黑箱监控已转化为可编程的安全干预。这种从观察到干预的范式转换,意味着 AI 安全研究正在进入工程化阶段,而非停留在理论假设层面。对于中文科技报道而言,追踪这一从“是什么”到“怎么做”的认知跃迁,或许比罗列技术术语更具价值。


