AI技术的发展和应用正在经历一个前所未有的增长期,这不仅带来了对其能力和社会影响的广泛讨论,也引发了对AI能耗问题的关注和担忧。AI技术的能耗问题被认为是可能限制其发展的瓶颈之一。
技术创业者和前工程师凯尔·科比特在社交媒体上分享了一个实际案例,揭示了AI能耗问题的具体情形。他提到,微软工程师在训练GPT-6时,面临了一个棘手的问题:如何将分布在不同地区的超过10万块H100芯片连接起来,而不会导致电网崩溃。这是因为每块H100芯片的峰值功率为700W,10万块芯片的峰值功率高达7000万W,相当于一座小型发电厂的全部输出。
电网压力和配套设施能耗是AI能耗问题中的两个关键点。大量的耗电设备集中在一个小区域,对电网的压力是巨大的。除了芯片本身,还需要考虑服务器和冷却设备的能耗。这些配套设施的能耗往往被忽视,但它们对整体能耗的贡献也是不可忽视的。
《报告》提到,AI的每日耗电量可能超过50万千瓦时,虽然这是一个巨大的数字,但与加密货币和传统数据中心相比,AI的能耗仍然较小。2022年全球数据中心、人工智能和加密货币的耗电量达到460TWh,占全球能耗的近2%。国际能源署(IEA)预测,在最糟糕的情况下,到2026年这些领域的用电量将达到1000TWh,与整个德国的用电量相当。
尽管AI直接研发的能耗相对较低,但数据中心和加密货币的能耗却相当惊人。例如,英伟达在AI服务器市场中占据了约95%的份额,2023年供应了约10万块芯片,每年耗电量约为7.3TWh。相比之下,2022年加密货币的能耗为110TWh,与整个荷兰的用电量相当。
数据中心的能效比(PUE)是衡量其能效的一个重要指标,即数据中心消耗的所有能源与IT负载消耗的能源的比值。能效比越接近1,表明数据中心浪费的能源越少。UptimeInstitute的报告显示,2020年全球大型数据中心的平均能效比约为1.59,这意味着数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。
在数据中心的额外能耗中,冷却系统消耗的能量可达总能耗的40%。随着芯片的更新换代和功率密度的提升,对散热提出了更高的要求。通过改进数据中心设计,可以大幅减少能量的浪费。不同数据中心的能效比差异很大,一些国家已经将能效比降到了1.46,而在一些国家,超过十分之一的数据中心能效比超过2.19。
世界各国正在采取措施,敦促数据中心实现节能减排的目标。例如,要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从2025年起能效比不高于1.3,并将可再生能源使用比例逐年上调,到2032年达到100%。
随着加密货币和AI的发展,各大科技公司的数据中心规模不断扩大,对电力的需求也在增加。国际能源署统计显示,在2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着美国东西海岸用地越发紧张,数据中心逐步向中部地区转移,但这些地区的电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从可再生能源购买电能,但这种用电方式和新建数据中心都需要大量的资金和技术支持。
AI技术的发展确实带来了能耗问题,但同时也激发了对能效提升和可再生能源利用的创新和改革。未来,随着技术的进步和政策的引导,我们有望看到AI领域在能耗问题上取得更多的突破。
本文来自作者[eeekj]投稿,不代表白鹜号立场,如若转载,请注明出处:https://vip.eeekj.cn/zixue/202412-80450.html
评论列表(4条)
我是白鹜号的签约作者“eeekj”!
希望本篇文章《更可怕的事还在后面 正在 吸干 全球电力 AI (更可怕的是)》能对你有所帮助!
本站[白鹜号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:AI技术的发展和应用正在经历一个前所未有的增长期,这不仅带来了对其能力和社会影响的广泛讨论,也引发了对AI能耗问题的关注和担忧,AI技术的能耗问题被认为是可能限制其发展的瓶颈之...