https://www.bilibili.com/video/BV1ZZSfBHEnf/
如今,一个 AI 数据中心需要的电力负荷,相当于一整座城市的用电量?那么 AI 会不会“杀死”电网?
全世界都在拼命建数据中心用来跑 AI,而电网已经快撑不住了。爱尔兰近 20% 的电力被数据中心吃掉,弗吉尼亚州的居民发现自家电费比几年前涨了 20%,就因为电力公司在拼命给旁边的AI设施供电。训练一个GPT-4,耗电量顶得上几千户美国家庭一整年。说她是 “电老虎”一点不冤。
但波士顿大学计算机科学家 Ayșe Coskun 在 TED 讲了一个很少有人提的视角。她说这些数据中心不只是吞电怪兽,它们也可以反过来帮电网。原因很简单,和家庭用电、医院用电不同,AI数据中心跑的任务大部分是可预测、可延迟的。你微调一个模型要跑好几天,慢几个小时你大概率不在乎。一个研究员拿AI分析几百张医学影像,多等一小会儿也完全能接受。
这种计算本身的弹性,就是留给电网的操作空间。中午太阳能过剩的时候,数据中心可以猛跑任务,把多余的电吃进去。傍晚用电高峰来了,它就主动降低负荷。本质上就是一块 “虚拟电池”,不需要真的去建昂贵的储能设施。
Coskun团队12年前就开始做这件事,当时,他们就提出“让计算机根据电网需求主动调整自身行为”。然而当时同行们觉得,这是异想天开。他们的论文被拒,经费被砍。但他们确实在真实服务器上验证了,系统可以跟踪电力目标的同时照常交付计算结果。现在这套方案已经在实际的 AI 数据中心里跑起来了。
我觉得这个方案中最精妙的,就是这种灵活性。电价每小时都在变,工作负载随时涌入,电网规则各地不同,没有人类操作员能实时搞定这些。Ayșe 把这比作管弦乐团,几百件乐器各自演奏就是噪音,但有一个AI指挥家,实时调度,就能让整个系统协调运转。
这件事最现实的意义在于,目前在弗吉尼亚这样的地方,新建数据中心光排队接入电网就要等五到七年。AI 行业六个月就是一代,七年等于什么都错过了。如果数据中心从一开始就具备“弹性电力”,就能更快接入现有电网,不用干等基础设施升级。这才是真正解锁 AI 规模化落地的关键卡点。
换句话说,问题不该只是 “AI消耗了多少能源”,更该问的是 “AI能为电网释放多少灵活性”。制造问题的那个东西,可能恰好也是能解决问题的东西。