GPT成“吃电狂魔”,马斯克“电荒”预言成真?

虎嗅网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

本文来自: 华尔街见闻 ,作者:卜淑情,原文标题:《GPT成“吃电狂魔” 日耗电量高达50万度 马斯克“电荒”预言成真?》,题图来自:视觉中国


最近一段时间,公众开始注意到,当前蓬勃发展的生成式AI技术需要耗费大量的电力。


据《纽约客》当地时间9日报道,荷兰国家银行数据专家Alex de Vries估计, OpenAI旗下聊天机器人ChatGPT每天消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭每天用电量的1.7万多倍。


谷歌搜索引擎同样需要大量的电力。


据de Vries估计,若谷歌在每次搜索中都使用AIGC (生成式人工智能技术) ,其年耗电量将增至约290亿千瓦时,这一数字超过了许多国家的一年用电量,包括肯尼亚、危地马拉和克罗地亚。


而随着AI芯片的不断更新换代,其所需的电力也越来越多。


比如,据戴尔公司首席运营官Jeff Clarke近日透露,英伟达将于2025年推出载有“Blackwell”架构的 B200产品,功耗或将达到1000W,较H100增加40%以上。


媒体的曝光在一定程度上呼应了一些AI大佬最近的担忧。


AI大佬集体发声:太缺电了


前不久马斯克在接受媒体采访时预言,AI行业将在明年迎来电力短缺,届时将“没有足够的电力来运行所有的芯片”。


很容易预测,接下来短缺的会是降压变压器。


你得给这些芯片供电。如果你的电力供应输出是100到300千伏,而它必须一路降压到0.6伏,这是一个很大的降压过程。


OpenAI创始人Sam Altman在世界经济论坛上也表示:


我们需要的能源确实比我们之前想象的要多得多。


随着生成式AI技术的快速蔓延,芯片对电力的需求大幅飙升。相关数据显示,十年前全球数据中心市场的耗电量为100亿瓦,而如今1000亿瓦的水平已十分常见。


另外,根据美国Uptime Institute的预测, 到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。


按照当前的趋势,de Vries预计,到2027年整个AI行业每年将消耗85~134太瓦时 (1太瓦时=10亿千瓦时) 的电力。


de Vries表示,他对于人们在面对大量机器学习的同时,人类学习的缺失感到失望。


在我看来,从政策角度讲,短期到中期内,唯一现实的措施是要求企业披露 (用电数据)


加密货币领域耗费了相当长的时间才达到这一点,而人工智能没有能更早做到这一点,让我感到失望。


根据de Vries此前编制的比特币能耗指数,比特币挖矿如今每年消耗1450亿千瓦时的电力,这一数字比整个荷兰的年用电量还要多,发电导致的二氧化碳排放量达8100万吨,超过了如摩洛哥等国的年排放总量。


AI电力需求飙升之际,能源赛道迎来新一轮机会?


有策略师分析表示, AI技术发展利好能源资产:


越来越多的人开始意识到,大型人工智能服务器群将需要大量能源,这正在提高一些投资者的兴趣,开始将投资范围扩大至电力、油气在内的相关能源领域,核能也开始受到关注。


英伟达CEO黄仁勋在最近的一场公开演讲中明确表示:


AI的尽头是光伏和储能! 如果只考虑计算机,我们需要烧掉14个地球的能源。


Altman也发表了类似观点:


未来AI的技术取决于能源,我们需要更多的 光伏和储能。


我们需要的是核聚变,或者是大规模的、成本极低的太阳能加储能系统,规模之大前所未有。


挑战同样存在!


以美国为例,清洁能源、AI、数据中心、电动汽车、挖矿等多种产业的增长,让原本陷入停滞的美国电力需求再度“起飞”。但即使被誉为世界上“最大的机器”,美国电网也似乎无法应对这突如其来的变化。


有分析师指出,美国70%的电网接入和输配电设施已老化,某些地区电网传输线路不足。因此,美国电网需要大规模升级,如果不采取行动,到2030年美国将面临一道难以逾越的国内供应缺口。


本文来自: 华尔街见闻 ,作者:卜淑情

随意打赏

提交建议
微信扫一扫,分享给好友吧。