Engramme 开放记忆 API 测试:大型记忆模型能否成为 AI 的下一个主战场
总部位于波士顿的 Engramme 正式向开发者开放记忆 API 接口,这家由神经科学背景创始团队创建的公司声称,其技术架构从根本上区别于当前主流的语言模型路径。
Engramme 将其核心技术命名为“大型记忆模型”( Large Memory Models )。与基于 transformer 架构的现有语言系统不同,这套模型的运作逻辑并非“生成”最可能的输出,而是从真实发生的事件、对话、文档和交互记录中“检索”匹配的回忆片段。公司表示,由于记忆与实际发生的事实严格绑定,幻觉问题在技术层面已被结构性消除——系统永远无法唤起未曾发生的事情。
这项技术被定位为“不可见的记忆层”,而非独立产品。开发者可将 API 无缝嵌入任意应用,在用户需要某段记忆的瞬间自动呈现,而无需用户主动搜索或输入任何指令。 Gmail 、 Zoom 、 Slack 、 Google Docs 以及 Meta 眼镜等可穿戴设备均被列入首批集成目标,实现跨平台、跨设备的一致记忆服务。
产品的目标受众并非普通消费者,而是企业产品团队。 Engramme 扮演底层基础设施的角色,帮助合作方为其用户提供持久、主动的记忆能力。三星、 Superhuman 、 Dropbox 和微软已被披露对这项技术表达了接入意向。
创始人 Gabriel Kreiman 是哈佛医学院神经科学家,发表超过 160 篇论文于《自然》和《自然·神经科学》等顶级期刊,其数十年关于神经回路如何编码与提取记忆的研究构成了公司的科学基底。另一位联合创始人 Spandan Madan 持有哈佛计算机科学博士学位,曾任职于 MIT CSAIL 、谷歌 DeepMind 、 Meta 和 Adobe 。公司已累计完成 300 万美元 pre-seed 轮融资,目前开放线上申请通道。
Engramme 押注的逻辑并不复杂:语言、视觉、语音的 AI 能力已相继被攻克,记忆正成为下一个未被征服的山峰。而这件事, Transformer 架构从设计上就无法胜任。


