N财联社 科创板日报 金融投资报 每日经济新闻 零碳知识局
近日,“ChatGPT耗电量惊人”登上热搜。据估算,ChatGPT每天要响应大约2亿个请求,日消耗电力超过50万千瓦时,相当于1.7万个美国家庭的用电量。
AI越智能,需要处理的信息就越多,所需电力也将呈几何级增长。上个月在瑞士达沃斯世界经济论坛年会上,OpenAI首席执行官萨姆·奥特曼表示:人工智能行业正在走向能源危机。奥特曼警告说,下一波生成式人工智能系统将消耗比预期更多的能源,而能源系统将难以应对。马斯克也曾表示,芯片短缺缓解后,限制AI发展的将是电力和变压器的短缺,而获取高效清洁能源的方法,会直接影响AGI(通用人工智能)时代的到来。
两个人其实说了一个意思,人工智能发展得太快,电不够用了。
研究警告:
AI能耗堪比荷兰年用电量
生成式人工智能模型离不开芯片的算力支持。进入3月份,英伟达市值一夜涨超2600亿元,市值超2万亿,从侧面印证了AI发展对算力的高需求。
英伟达CEO黄仁勋称,对AI所依赖的计算能力的需求仍然是极其巨大的,“全球范围内,企业、行业和各国的需求都在激增。”据悉,英伟达的业绩爆发得益于数据中心业务的增长,特别是生成式人工智慧和语言模型的训练和推理的推动。
而算力的运行和生产往往离不开电力,据微软数据中心技术的预测,到2024年底,全球部署的百万量级的H100GPU将使得英伟达的总耗电量超过美国亚利桑那州凤凰城的所有家庭用电量,仅次于得克萨斯州休斯敦。
来自《焦耳》杂志上的一项研究表明,到2027年,生成式人工智能所消耗的能源能为荷兰大小的国家提供一年的电力,相当于约85~134太瓦时(TWh)。参数更多、功能更为强大的人工智能将给人类的能源供应产生巨大压力。
这意味着在几年内,大型人工智能系统需要的能源量可能将达到整个国家的用能水平,要实现向全面智能时代过渡,甚至建成元宇宙,能源消耗不可估量。
近期发表在《自然》杂志上的一篇文章指出,由生成式人工智能驱动的搜索所消耗的能源是传统网络搜索的四到五倍,OpenAI在加利福尼亚州旧金山创建的聊天机器人ChatGPT已经消耗了33000个家庭的能源。
据机构预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增至10%,届时,AI造成电力行业的缺口也会更大。
不仅费电还费水
同时带来碳排放问题
生成式人工智能系统需要大量的淡水来冷却其处理器和发电,耗水量也是一个无底洞。不过,许多大型科技公司都没有披露AI训练和运营过程中的能耗或用水量。
正在大力开发人工智能的微软在其最新的环境报告中透露,2022年公司用水量同比去年激增了34%,达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。外部研究人员认为这与微软的人工智能研究有关。
谷歌发布的2023年环境报告同样显示,其2022年消耗的水量高达212亿升,其中有约196亿升的水用于数据中心。
加利福尼亚大学河滨分校和得克萨斯大学阿灵顿分校的研究人员在一篇名为《让人工智能更加节水》的论文中发现,用于训练GPT-3所需的清洁淡水量相当于填满核反应堆冷却塔所需的水量。ChatGPT在与用户进行大约25~50个问题的交流时需要“喝”一瓶500毫升的水。
不止如此,算力的大规模部署和应用不仅消耗大量资源,同时也带来碳排放问题。以数据中心碳排放为例,数据中心碳排放主要来源于IT设备、空调系统、电源系统、照明系统等电力消费产生的间接排放,根据生态环境部环境规划院发布的《中国区域电网二氧化碳排放因子研究(2023)》,目前我国各省平均电网排放因子约0.61千克/千瓦时,若2025年、2030年各省平均电网排放因子保持目前的水平不变,则2025年、2030年我国数据中心间接碳排放量将分别达到2.1亿吨、3.5亿吨。
电力不足
将影响AI新技术迭代
当前人工智能技术在处理性能和功耗方面存在哪些挑战?电力供给不足对人工智能产业会造成怎样影响?
对此,西南交通大学计算机与人工智能学院副教授、博士生导师邢焕来在接受记者采访时表示,AI模型的实际性能、泛化能力和应用效果与训练推理过程中的数据质量息息相关,而高质量的存储能力是释放数据价值必不可少的关键因素。AI模型的计算能力和存储能力通常依赖于大规模数据中心的高性能计算设备和存储设备来支持,而这一切都离不开电力的支撑。
邢焕来认为,电力供给不足可能限制AI技术在特定领域或者行业的应用与普及,对于电力基础设备不发达的区域,AI技术的推广和应用将受到严重影响。此外,AI模型的研发和训练需要使用大量的计算和存储资源,对电力供应带来了挑战。如果电力供应不足,可能影响到新技术的迭代与应用。
邢焕来指出,电力供应不足可能会导致计算资源无法充分利用,从而影响AI模型推理的速度和准确性,降低其泛化能力。目前AI技术在不同领域的应用不断扩展,从自动驾驶到语音识别,从AIGC到AI“复活”技术,其突破的驱动力主要来自数据与算力。其对高性能计算资源与存储资源的需求将持续增长,从而导致对电力的需求不断增加,这种增长在某种情况下可能超过电力供应的增速。
高耗能问题如何解决?
随着AI的进步、模型的增大,如何解决伴生而来的高耗能问题?
当下的重点在于开源,风能、光伏等可再生新能源被视作数据中心重要的能量池,核能尤其被寄予厚望。由于几乎无限的燃料供应、环境友好、能量密度高、安全性高,核聚变被视为解决能源危机和气候变化问题的关键技术。得益于多个国家和私营企业的积极参与以及技术突破,全球核聚变商业化的进展正在加速。如果成功实现商业化,它将为人类提供几乎无限的清洁能源。
节流方面,由于模型本身的算法和架构,以及硬件优化均会让AI功耗在一定程度上降低,已经有一些解决大模型高能耗问题的思路,主要包括:
1.算法和模型优化
通过算法优化,如权重剪枝、量化等技术,以及模型压缩技术,减少模型的复杂度,同时保持或接近原有的性能。近年来提出的一些轻量级模型(如MobileNet)就是为了低功耗场景而设计的。
2.硬件优化
开发和使用更高效的AI专用硬件,如英伟达开发的GPU T4和A100,谷歌开发的TPU(Tensor Processing Unit),这些硬件专为AI任务设计,能够在更低的能耗下提供更高的计算效率。
3.训练、计算技巧
训练技巧是一种通过调整神经网络的训练过程来优化计算资源的方法。例如,分布式训练技术可以利用多台计算机分担大规模计算的负荷。另外,将AI计算任务从云端转移到边缘设备,这样可以减少数据传输所需的能量,并利用边缘设备的低功耗特性。
4.提高数据中心的能效
通过优化数据中心的设计和管理,提高电源使用效率。例如,使用更高效的冷却系统,或者通过AI技术动态调整数据中心的运行状态以降低能耗。
其中,对于第四点,国内大厂纷纷给出解决方案。比如腾讯能源业务已独立成为一级部门,其数据中心部门还组建了专门绿色能源团队,应用自然冷却、液冷、三联供、余热回收等新兴节能技术,提高制冷效率以降低数据中心能耗。华为、京东、亚马逊等也纷纷入局智慧能源领域。