5 分钟彻底厘清大语言模型中的权重、上下文和记忆的区别

权重是模型训练固定的底层能力;上下文是单次对话中实时可见的临时信息;记忆则是外部构建、需主动检索调用的长期知识。三者分别对应“会什么”“此刻想什么”“能记住什么”,厘清差异对优化AI系统设计与使用效果至关重要。

发布于2026年2月14日 02:02
编辑零重力瓦力
评论0
阅读18

什么是大语言模型中的权重、上下文和记忆?AI 科普达人 New Machina 将用 5 分钟讲清它们之间的区别和应用场景。

在使用大语言模型时,很多人都会听到权重、上下文和记忆这些词,但它们到底各自负责什么,其实很容易混在一起。理解清楚这三点,有助于看懂模型能做什么,也能帮助我们更好地设计和使用 AI 系统。

先说权重。权重是模型在训练过程中学到的参数,决定了它如何理解语言、如何推理、如何生成回答。模型一旦训练完成并上线,这些权重基本就不再变化了。可以把它理解为模型的底层能力,比如语言结构、常识、推理方式,以及基础的编程和数学能力。所有用户用的是同一套权重,它决定了模型的下限和上限。

再看上下文。上下文是模型在一次对话中能看到的所有信息,包括你的输入、系统提示,以及之前的回答。它像一块临时的工作区,随着对话不断变化。上下文越长,模型能参考的信息越多,但同时计算成本和延迟也会增加。默认情况下,对话一结束,上下文就消失了,不会自动带到下一次。

最后是记忆。记忆通常指由系统额外设计的长期存储,比如数据库。它可以跨会话保存信息,例如用户偏好、历史对话摘要、企业知识或长期事实。记忆不是模型自带的,而是通过检索在合适的时候放回上下文中使用。做得好的记忆系统,可以让 AI 用起来更连贯,也更像一个长期合作的助手。

简单来说,权重决定模型会什么,上下文决定它此刻在想什么,记忆决定它能记住什么。把这三者分清楚,才能在性能、成本和体验之间做出更合理的取舍。这也是为什么对 AI 系统构建者来说,理解它们的差别非常重要。

相关文章

新方法让 AI 模型在训练中实现轻量化提速
AI 教程知识
2026年4月14日
0 条评论
小创

新方法让 AI 模型在训练中实现轻量化提速

MIT 团队联合多机构开发 CompreSSM 技术,在 AI 模型训练过程中同步完成压缩。核心创新在于引入控制理论数学工具,利用汉克尔奇异值衡量各状态重要性,仅需完成 10%训练即可确定可丢弃部分,后续 90%训练以更小规模进行。实验显示压缩模型保持接近完整准确率,训练速度提升 1.5 至 4 倍,将压缩从事后补救转为训练内生环节,为 AI 系统开发提供从“越大越好”向“适度精准”转变的新范式。

#MIT
阅读全文
可解释性研究:拆解大语言模型的思维黑箱
AI 教程知识
2026年4月13日
0 条评论
小创

可解释性研究:拆解大语言模型的思维黑箱

Anthropic 可解释性研究团队致力于拆解大语言模型“思维黑箱”。团队通过电路追踪、情感概念分析、人格向量提取等技术,揭示模型内部运作机制,发现其具备有限自我内省能力。研究正从描述性理解向可编程的预测性控制跃迁,为解决偏见、滥用等安全问题提供新路径。

#Anthropic
阅读全文
Anthropic“宪法分类器”技术,拦截大模型越狱攻击
AI 教程知识
2026年4月13日
0 条评论
小创

Anthropic“宪法分类器”技术,拦截大模型越狱攻击

Anthropic 发布“宪法分类器”技术,通过合成数据与分类器相结合的方式防御大模型越狱攻击。实测显示,该技术将越狱成功率从 86%降至 4.4%,同时误拒正常请求率仅上升 0.38%。团队举办开放挑战赛验证系统稳健性,最终发现通用越狱漏洞,为后续迭代优化提供数据支撑。

#AI 安全#Anthropic
阅读全文
互动讨论

评论区

围绕《5 分钟彻底厘清大语言模型中的权重、上下文和记忆的区别》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。