在探讨人工智能(AI)能耗问题的讨论中,凯尔·科比特的现象引起了社会的广泛关注。科比特,一位技术创业者兼前工程师,在社交媒体上分享了微软工程师们在训练GPT-6过程中所面临的能耗挑战。他们为了减少电力消耗,不得不将分散在不同地区的H100芯片通过IB(Infiniband)网络连接起来,以避免10万块H100芯片集中在一个区域导致电网负荷过大致崩溃。
每块H100芯片的峰值功率为700W,10万块H100芯片的峰值功率高达7000万W,相当于一座小型发电厂的全部输出。考虑到服务器和冷却设备等配套设施的能耗,区域电网的压力是巨大的。
根据《》的报道,AI的耗电量虽然已经相当高,但与加密货币和传统数据中心相比,仍是小巫见大巫。2022年全球数据中心、AI和加密货币的耗电量为460TWh,接近全球2%的能耗。国际能源署(IEA)预测,到2026年,这些领域的用电量可能会达到1000TWh,相当于韩国全年的用电量。
目前,AI研发的能耗还是低于数据中心和加密货币。以英伟达为例,它在全球AI服务器市场占比约95%,在2023年供应了约10万块芯片,耗电量约为7.3TWh。加密货币在2022年的能耗已达110TWh,相当于全球一个小国的全年用电量。
数据中心的能耗效率(PUE)是衡量数据中心能效的一个重要指标,即所有消耗的能源与IT负载消耗的能源之比。全球大型数据中心的平均PUE约为1.59,意味着IT设备每消耗1度电,配套设施就会消耗0.59度电。其中,冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片功率的增大和数据中心功率密度的提升,对散热的要求越来越高,这也使得数据中心的能效比差异很大。
为了实现节能减排的目标,世界各国正在采取行动。数据中心被要求设立余热回收设备,美国政府投资研发更高能效的半导体,中国政府要求数据中心从2025年起的能效比不高于1.3,并逐渐提高可再生能源的使用比例,到2032年达到100%。
随着加密货币和AI的发展,科技公司数据中心的规模不断扩大。美国2022年约有2700座数据中心,消耗了全国4%的用电量,预计到2026年这一比例将上升到6%。随着东西海岸用地紧张,数据中心逐步向中部地区转移,而这些地区的电力供应可能无法满足需求。一些技术公司尝试通过直接购买电能来摆脱电网的束缚,但这种用电方式和新建电站都面临着巨大的挑战。
AI的能耗问题是一个多维度的挑战,涉及到技术本身的能耗、配套基础设施的能耗,以及电网的承载力。随着AI技术的发展,如何平衡能源消耗与技术进步之间的关系,将是未来需要重点关注和解决的问题。
本文来自作者[eeekj]投稿,不代表白鹜号立场,如若转载,请注明出处:https://vip.eeekj.cn/zixue/202412-81486.html
评论列表(4条)
我是白鹜号的签约作者“eeekj”!
希望本篇文章《未来有何更令人担忧的新问题 全球电力供应面临挑战 AI技术迅猛发展 (未来更加)》能对你有所帮助!
本站[白鹜号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:在探讨人工智能,AI,能耗问题的讨论中,凯尔·科比特的现象引起了社会的广泛关注,科比特,一位技术创业者兼前工程师,在社交媒体上分享了微软工程师们在训练GPT,6过程中所面临的能...