OpenAI 的奥特曼最近在最新一期播客里提到,明年他们会部署一个耗电高达 10 吉瓦的新系统,来支持他们的大模型和相关服务。这么一说,你有没有好奇,大语言模型和我们人类大脑,在用电上到底差别有多大?科普博主 New Machina 将用 5 分钟让我们理解其中的差别。

像 GPT、Gemini 这些大模型,背后的数据中心耗电量非常惊人,有时候甚至能赶上一个小镇,或者几座核电站。而且并不是只有训练阶段消耗大,模型平时运行、做推理时,功耗也很高,需要一大堆服务器和冷却系统来维持。

相比之下,人类大脑就厉害的多,每天只消耗大约 20 瓦的电,就能完成各种复杂的思考和任务,差不多跟一只小灯泡一样。这种效率,是几百万年进化的结果,我们的大脑结构本身就特别节能。

因此,研究人员也在不断研究,怎么让大模型向大脑学习,不仅要更聪明,还得用电少。常见的做法就是优化算法、改进硬件,让模型运行越来越高效。只有这样,未来这些智能系统才不会和家庭、医院、工厂抢电,使用它们的价格也会更低。