人工智能(AI)的迅猛发展已经成为了一个不可忽视的现象,它不仅引起了广泛的讨论,也带来了一系列的担忧,尤其是在能耗问题上。一些人担心AI的发展可能会导致能源消耗的激增,而另一些人则以幽默的方式表达了对这一问题的轻描淡写。但无论态度如何,AI能耗问题已经是一个不容回避的现实问题,成为了制约AI发展的潜在瓶颈。
最近,技术创业者、前工程师凯尔·科比特在社交媒体上分享了他的观察,指出AI能耗问题已经成为一个实际的挑战。他提到,微软工程师在训练GPT-6时,为了避免电网过载,不得不在不同地区搭建IBM网络来连接超过10万块H100芯片。这样的分散部署是为了避免电网崩溃,因为据数据显示,每块H100芯片的峰值功率为700W,10万块的总峰值功率高达7000万W。能源行业从业者指出,这样的能耗相当于一座小型或中等规模发电厂的全部输出。这还只是芯片本身的能耗,如果再考虑到服务器和冷却设备的能耗,集中部署的挑战就更加明显,给电网带来的压力也可想而知。
AI的能耗问题只是冰山一角。据《》报道,AI的每日耗电量可能超过50万千瓦时。虽然这个数字听起来惊人,但与加密货币和传统数据中心相比,AI的耗电量仍然不算什么。微软工程师面临的问题说明,AI发展的制约因素不仅仅是技术本身的能耗,还包括配套基础设施的能耗和电网的承载力。国际能源署(IEA)预测,到2026年,数据中心、人工智能和加密货币领域的用电量可能达到1000TWh,与整个法国的用电量相当。
数据中心的能效通常用PUE(功率使用效率)来评估,即消耗的所有能源与IT负载消耗的能源的比值。能效比越接近于1,表明数据中心浪费的能源越少。UptimeInstitute的报告显示,2020年全球大型数据中心的平均PUE约为1.59,这意味着数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。冷却系统的能耗占据了数据中心额外能耗的绝大部分,有研究显示,冷却系统消耗的能量可达数据中心总能耗的40%。
随着芯片的更新换代,单台设备的功率增大,数据中心的功率密度不断提升,对散热提出了更高的要求。通过改进数据中心设计,可以大幅减少能量的浪费。不同数据中心的能效比差异很大,有些国家已经把能效比降到了1.46,而有些国家仍有超过十分之一的数据中心能效比超过2.19。全球范围内,各国正在采取措施,敦促数据中心实现节能减排的目标。
随着加密货币和AI的发展,科技公司的数据中心规模不断扩大。国际能源署统计显示,2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着数据中心逐步向电力供应可能无法满足需求的二线地区转移,一些技术公司尝试摆脱电网的束缚,直接从可再生能源购买电能,但这种用电方式和新建数据中心的成本都非常高昂。
![](https://q3.itc.cn/q_70/images03/20241227/3081c1fa5ba64b95bd1d4d40735c3111.jpeg)
AI的能耗问题是一个复杂的系统工程,涉及技术发展、基础设施建设、电网承受能力、能源效率和政策制定等多个方面。随着AI技术的进步和应用范围的扩大,这一问题需要得到更多的关注和更有效的解决方案。
本文来自作者[eeekj]投稿,不代表白鹜号立场,如若转载,请注明出处:https://vip.eeekj.cn/zixue/202412-81833.html
评论列表(4条)
我是白鹜号的签约作者“eeekj”!
希望本篇文章《AI技术革命 全球电力消耗激增之忧 (ai技术革命的三个特征)》能对你有所帮助!
本站[白鹜号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:人工智能,AI,的迅猛发展已经成为了一个不可忽视的现象,它不仅引起了广泛的讨论,也带来了一系列的担忧,尤其是在能耗问题上,一些人担心AI的发展可能会导致能源消耗的激增,而另一些...