什么是大语言模型中的权重、上下文和记忆?AI 科普达人 New Machina 将用 5 分钟讲清它们之间的区别和应用场景。
在使用大语言模型时,很多人都会听到权重、上下文和记忆这些词,但它们到底各自负责什么,其实很容易混在一起。理解清楚这三点,有助于看懂模型能做什么,也能帮助我们更好地设计和使用 AI 系统。
先说权重。权重是模型在训练过程中学到的参数,决定了它如何理解语言、如何推理、如何生成回答。模型一旦训练完成并上线,这些权重基本就不再变化了。可以把它理解为模型的底层能力,比如语言结构、常识、推理方式,以及基础的编程和数学能力。所有用户用的是同一套权重,它决定了模型的下限和上限。
再看上下文。上下文是模型在一次对话中能看到的所有信息,包括你的输入、系统提示,以及之前的回答。它像一块临时的工作区,随着对话不断变化。上下文越长,模型能参考的信息越多,但同时计算成本和延迟也会增加。默认情况下,对话一结束,上下文就消失了,不会自动带到下一次。
最后是记忆。记忆通常指由系统额外设计的长期存储,比如数据库。它可以跨会话保存信息,例如用户偏好、历史对话摘要、企业知识或长期事实。记忆不是模型自带的,而是通过检索在合适的时候放回上下文中使用。做得好的记忆系统,可以让 AI 用起来更连贯,也更像一个长期合作的助手。
简单来说,权重决定模型会什么,上下文决定它此刻在想什么,记忆决定它能记住什么。把这三者分清楚,才能在性能、成本和体验之间做出更合理的取舍。这也是为什么对 AI 系统构建者来说,理解它们的差别非常重要。
