美国要求科技公司投资电力能源,光储满足AI近三年40GW消耗

手机集合吧家人 2024-06-07 20:26:39

人工智能数据中心是真正的能源大户,其能耗已经相当于一个小国家,而这仅仅只是个开始。

6月4日,拜登政府要求大型科技公司投资新的气候友好型电力,为各自的AI数据中心开发电力资源。

就在今年3月,AI高耗能问题就再度引发热议,话题#ChatGPT日耗电超50万度,是美国普通家庭1.7万多倍#冲上热搜。

如此看来,人工智能社会对电力的需求如同无底洞。

储能行业专业人士对潮电智库表示,越来越多的数据中心开始尝试使用太阳能、风能等可再生能源,通过屋顶光伏、车棚光伏等形式做到分布式光伏发电。风储一体化发电系统、屋顶光伏储能设备装机量有望大量增长。

相关统计数据显示,到2026年,人工智能将消耗约40GW的电力。当生成式AI的电力需求激增,商业储能蓄势待发。

“AI的尽头是光伏和储能。”英伟达CEO黄仁勋的这句话是最好的诠释。

更复杂的模型会消耗更多能源

AI时代有个异常火热的词叫深度学习。在需要大量并行处理能力时,图形处理器(GPU)逐渐取代中央处理器(CPU)成为首选。

马斯克表示,目前算力增长已经面临瓶颈,很明显,接下来变压器会陷入短缺,紧接着就是电力,等到2025年,我们将没有足够的电力来运行所有的芯片。

也许,真正的电力紧张很快就会到来,电网压力濒临极限。今后,阻碍AI发展的难题将由“缺硅”变为“缺电”。

人工智能热潮对电网供电能力造成极大压力。在此背景下,必须加速电气化才能实现世界脱碳目标。

储能是AI发展的定海神针

黄仁勋在公开演讲中多次指出,AI未来发展与光伏和储能紧密相连。

数据显示,按照目前人工智能容量和采用的趋势,到2027年,英伟达每年将出货150万台AI服务器。到2027年,全球人工智能行业每年将消耗85至134TWh的电力,而这已经超过许多小国一年的用电量。

相关专业机构表示,到2025年初,AI数据中心的电力需求将超过10GW;2026年全年总电力消耗可能达到1000TWh以上,其需求大致相当于日本的电力消耗。

AI数据中心在进行大规模的数据处理和训练时,需要24/7的不间断运行以支持各种在线服务和应用。而储能系统可以作为备用电源,确保AI系统在电网故障或中断时稳定运行,并且能平滑峰值负载,减少对电网的压力。

多位AI大佬公开表达了储能对于AI发展的重要性。OpenAI创始人山姆·奥特曼说,AI的未来取决于清洁能源的突破,我们需要更多的光伏和储能。”

算力和能源是未来真正的“货币”,而这两者之间可以互相转换。

0 阅读:47