AI制图
轻松扫码 科普一下
近日,一则“人工智能已对全球电力系统造成严重破坏”的报道,引发公众对AI能耗的担忧。
AI到底有多耗电?
中国科学院计算技术研究所工程师刘延嘉接受科普时报记者采访时表示,AI的耗电主要集中在模型训练和推理两方面。一般来说,参数量越大,大模型的算力消耗就越大,其消耗的电能就越多。以GPT-3大模型为例,其训练耗电总量大约为1280兆千瓦时,也就是128万度电,相当于6400个中国普通家庭一个月的用电量。
在推理阶段的耗电量同样不容小觑。刘延嘉说:“推理是大模型响应用户需求的过程,虽然AI推理阶段单次能耗比训练阶段低,但由于高频调用,电力消耗也相当惊人。”在全球已推出的数百个AI大模型中,仅ChatGPT每天就要消耗50万千瓦时电力来响应用户超2亿的应用需求。随着全球用户数量、使用频率的增加,耗电量也将不断累积。
据国际能源署发布的《电力2024》报告预测,到2026年,全球数据中心每天的用电量将达到1.05万亿千瓦时,大约是整个日本全年的用电量。当下AI应用范围越来越广,其对全球电力系统的“压榨”还将进一步凸显。
如何应对AI耗电问题?
“最直接的解决方案是从供应端入手,不断增加供电量,以解决AI耗电问题。”刘延嘉表示,风电、光电及储能技术已经成为重要突破口,并取得了长足的发展。
在需求端,包括算法优化、硬件改进和能源管理等方面都有节能潜力可以挖掘。算法优化可以在不显著降低AI性能的情况下,减少计算量和能耗。刘延嘉建议,包括芯片在内的硬件改进,是解决AI耗电问题的重要途径,未来量子计算、光子计算等新型计算技术也可大幅提升计算效率,减少能耗。
此外,刘延嘉介绍,在AI数据中心能源管理上,积极转向可再生能源供电、使用先进的冷却技术和智能电力管理系统,都能有效降低AI的能耗。
编辑:吴桐