Google DeepMind 发布通用人工智能评估框架,首次将认知科学引入 AGI 能力衡量标准。该研究团队在最新论文《 Measuring Progress Toward AGI : A Cognitive Taxonomy 》中提出了一套基于认知科学的系统性框架,旨在为通用人工智能的发展提供科学、可量化的评估依据。
这套框架整合了心理学、神经科学与认知科学数十年的研究成果,将通用智能分解为 10 项核心认知能力:感知能力负责从环境提取感官信息;生成能力涵盖文本、语音及行为的产出;注意力用于分配认知资源;学习能力通过经验与指导获取新知识;记忆系统承担信息的存储与检索;推理能力进行逻辑推断;元认知监控自身思维过程;执行功能管理计划、抑制与认知灵活性;问题解决能力应对特定领域挑战;社会认知处理人际互动中的信息解读与响应。
为将理论付诸实践,研究团队设计了三级评估协议:首先在大规模认知任务上测试 AI 系统表现,并采用隔离测试集防止数据污染;其次从具有人口代表性的成人样本中采集人类基准数据;最后将 AI 表现与人类能力分布进行对照映射。
与此同步启动的 Kaggle 黑客松聚焦于评估缺口最大的五项能力:学习、元认知、注意力、执行功能与社会认知。竞赛总奖金池达 20 万美元,各赛道前两名各获 1 万美元,四个最佳方案分享 2.5 万美元的头奖。提交窗口 3 月 17 日至 4 月 16 日, 6 月 1 日公布结果。
随着 AI 技术持续突破,建立统一的评估标准已迫在眉睫。这份研究试图回答的不仅是“AI 能做什么”,更是“AI 如何实现通用智能”这一根本问题——认知科学提供了理解智能本质的古老钥匙,而量化这把钥匙的刻度,仍需整个研究社区的共同参与。
创艺洞察
这份框架的发布标志着 AGI 评估从模糊的“能力展示”转向严谨的“认知溯源”。 10 项认知能力的划分看似是学术梳理,实则暗含一个关键判断:真正的通用智能并非单一能力的极致表现,而是多元认知功能的协调统一。这与人类智能的内在结构形成了镜像对照。
然而挑战同样清晰:认知能力的边界如何界定?不同能力之间的交互效应如何建模?将 AI 与人类能力直接对标是否会陷入“模仿游戏”的窠臼?这些问题的答案,或许决定了这份框架是成为行业标准,还是停留在学术参考。


