电力或成AI发展的达摩克利斯之剑

 
 
 
 
 
 
 

来源: 数据观综合

 

 

人工智能(AI)的崛起正以前所未有的速度推动科技进步与经济增长,成为全球范围内新一轮技术革命的核心驱动力。然而,这一繁荣景象背后隐藏着一个不容忽视的现实:急剧增长的电力需求正对现有电力系统构成严峻挑战。

AI 正在“吸干”全球电力

 
 
 
 

 

《纽约客》杂志近日指出,OpenAI的ChatGPT每天处理约2亿次用户请求,消耗的电力或超过50万千瓦,相当于1.7万个美国家庭的用电量。“明年将没有足够的电力来运行所有的芯片。”埃隆·马斯克早前的预言不仅是对未来的警示,更是对当前AI电力需求激增的深刻洞察。

 

不久前,技术创业者、前谷歌工程师凯尔·科比特(Kyle Corbitt)也在社交媒体 X 上表示,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU 连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。

 

 

为什么这些芯片集中起来会导致电网崩溃的后果呢?以下数据或许可以说明原因。

 

英伟达网站上公布的数据显示,每块H100芯片的峰值功率为 700W,10万块H100峰值功耗最高可达7000万W。而 X 评论区有能源行业从业者指出,10万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。这一数据直观展现了AI大模型在训练和推理过程中对电力的巨大依赖。

 

事实上,ChatGPT仅是AI应用的冰山一角,更大规模的电力消耗来自遍布全球的数据中心。据国际能源署统计,2022年美国约有2700个数据中心,电力消耗占全国总量的4%,且这一比例预计在2026年升至6%。同时,报告还显示,2022 年全球数据中心、人工智能和加密货币的耗电量就达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到2026年这些领域的用电量将达1000 TWh,与整个日本的用电量相当。

 

AI对电力需求的增长不仅源于大模型的运算量,还与芯片性能提升和冷却需求相关。芯片设计公司Arm的首席执行官Rene Haas警告称,若不提高芯片能效,到2030年,AI数据中心的耗电量可能占据美国总电力需求的20%-25%。美银美林的研究报告也进一步指出,AI电力使用量预计在2023年至2028年间以25%-33%的年复合增长率增长,远高于整体电力需求2.8%的年复合增长率。

 

从全生命周期视角评估 AI 能耗

 
 
 
 

 

华盛顿ITIF智库在一份题为《重新审视对人工智能能耗的担忧》的报告中指出,目前许多研究和政策都关注 AI 训练(training)阶段,但多项研究表明 AI 在推理(inference)过程中,也即人们使用 AI 输出结果的过程能耗更高。此外,不同 AI 模型处理不同类型的推理任务,能耗的差异也很大。例如 1000 次请求计算,图片分类任务的耗电量是 0.007 千瓦时,而图片生成任务耗电 2.907 千瓦时。

 

报告认为,AI 的训练是一次性事件,而它的使用是长期过程,讨论 AI 能耗问题时应该关注的不是爆发式增长,而是长期的影响。并且,从技术史的视角看来,AI 及其能耗的增长还将受到以下 4 个因素的限制:

 

基础设施建设成本将制约 AI 的快速增长

 

事实上,“ChatGPT 每日耗电量或超过 50 万千瓦时”的结论,出自技术博客 Digiconomist 作者亚历克斯·德·弗里斯(Alex de Vries)的估算。德·弗里斯还曾预测,在最糟糕的情况下,谷歌的 AI 用电量将与整个爱尔兰相当,达到每年 29.3 TWh(太瓦时)。但他同时也指出,要想达到这样的规模,谷歌需要在芯片上投入 1000 亿美元,此外还要数据中心的运营和电费投入数十亿美元。如果AI的运营成本居高不下,逐利的商业公司自然会放慢脚步,减少投入。

 

AI 性能增长存在边际效应

 

近年来 AI 连续在许多领域取得了突破性进展,这也意味着它可能很快迎来一个瓶颈期。研发、运营更大的模型带来的回报将越来越低,在提升准确性上精益求精也将变得更困难。所以,优化 AI 模型可能是接下来的研发方向。

 

软件和硬件的性能提升将减少 AI 能耗

 

AI 模型的优化,以及硬件技术的进步,都有望减少 AI 的能耗。一项发表于《科学》期刊的研究指出,在 2010~2018 年间,全球数据中心的运算量增长了 550%,存储空间增长了 2400%,但耗电量仅增长 6%。硬件、虚拟技术和数据中心设计方面的创新提升了能效,也使得云计算的规模化成为可能。

 

同样,剪枝(pruning)、量化(quantization)、蒸馏(distillation)等技术有望带来更好的算法,让 AI 模型更快、更节能。谷歌公司和加州大学伯克利分校研究团队指出,有赖于各项技术进步,近年来在谷歌公司内部 AI 的能耗占比保持稳定,尽管机器学习增长到运算量的 70%~80%。

 

AI 的应用最终将在某些方面减少碳排放

 

整体上,当人们用电子邮件替代传统书信,用观看 DVD 或流媒体频道替代去电影院看电影,这些活动的数字化都减少了碳排放。AI 有望在这方面继续发挥作用,例如通过改进视频通话体验,使更多的会议转向远程进行。此外,AI 技术还可用于进行电网调度、分析气候数据,从而成为应对气候变化的助力。

 

电力供需矛盾与公共电网压力

 
 
 
 

 

AI产业的快速发展与现有电力供应体系形成了鲜明对比。以美国为例,一方面,美国电网基础设施大多建于上世纪六七十年代,设备老化、输电线路过载等问题突出,难以应对突如其来的电力需求激增。例如,2021年得克萨斯州因极端寒潮引发的大停电事件,暴露了电网脆弱性。另一方面,企业对有限的电网接入权限展开激烈竞争,纷纷在科技产业欠发达地区如俄亥俄、爱荷华等地布局数据中心,以获取稳定的电力供应。

 

这种供需矛盾迫使企业采取各种手段“抢电”,包括自建或购买专属电源、寻求新型能源解决方案等。联邦政府虽意识到电力瓶颈问题,但受制于跨州管辖权、土地购置、环保评估以及成本分摊等复杂因素,大规模电网升级面临重重困难,短期内难以取得显著成效。

 

清洁能源技术:应对电力挑战的新希望

 

在传统电力供应捉襟见肘的情况下,核能、燃料电池和地热能等清洁能源技术成为缓解AI电力需求压力的潜在路径。企业积极探索多元化的电力供应方案,以确保业务稳定发展的同时,尽可能减少对环境的影响。

 

核能:可靠但争议犹存

 

核能以其高效、清洁和稳定的特点吸引了众多科技巨头。亚马逊网络服务公司(AWS)选择在宾夕法尼亚州的核电站附近设立数据中心,并有望获得高达960兆瓦的专用电力。微软则在招聘核技术专家,评估和整合小型模块化核反应堆与微反应堆,旨在为数据中心提供持续动力。尽管如此,小型核反应堆在美国尚无实际应用案例,其落地需克服联邦监管审批、公众接受度以及安全顾虑等多重障碍。

 

燃料电池与地热能:成熟且具潜力

 

相较于核能,燃料电池与地热能技术更为成熟,且在短期内实现商业应用的可能性较大。数据中心开发商Michael Halaburda和Arman Khalili在其项目中就采用了这两种清洁能源。他们在波特兰地区的数据中心以天然气为燃料的燃料电池为主要电力来源,辅以电网电力;在得克萨斯州南部的项目则完全脱离电网,利用地热能发电满足数据中心需求。这些实践表明,燃料电池与地热能能够有效减轻对传统电网的依赖,为AI数据中心提供可靠的绿色能源。

 

核聚变:未来能源的星辰大海

 

虽然目前尚未实现商业应用,核聚变作为能源领域的“圣杯”,因其理论上近乎无限的能源供应潜力和极低的环境影响,备受科技企业和投资者关注。微软与核聚变初创公司Helion达成电力购买协议,计划在2028年从Helion采购电力。OpenAI CEO山姆·阿尔特曼对该领域亦有所投资,展现出对未来核聚变能源的期待。尽管实现核聚变商业化还需克服重大技术难题,但其一旦成功,将彻底颠覆能源格局,为AI产业乃至全球电力需求提供几乎无限的清洁能源。

 

AI与电力的可持续共生之路

 
 
 
 

 

面对AI算力需求引发的电力挑战,行业与政策制定者应携手探索多维度解决方案。短期来看,优化数据中心能耗、提高芯片能效、合理布局数据中心地理位置,以及利用现有成熟清洁能源技术如燃料电池与地热能,都是缓解电力供需矛盾的有效途径。长远而言,核能尤其是小型模块化反应堆和核聚变技术的发展,有望为AI产业提供更为清洁、高效且稳定的能源供应。

 

同时,政策层面应积极推动电网现代化改造,加快跨州输电线路建设和清洁能源接入,以适应AI及其他高能耗产业的电力需求增长。社会各界应共同努力,构建一个既能支撑AI技术蓬勃发展,又能确保能源安全与环境保护的电力系统,实现AI与电力的可持续共生,驱动全球经济迈向更加智能、绿色的未来。

 

 

 

 

 
 
 
 
 
 

免责声明:本号所载内容均为原创、投稿、授权转载或网络公开资料搜集整理,仅供读者交流学习使用,版权归原作者所有,且仅代表作者个人观点,与本号立场无关。若所引用的图片、数据、文字等来源标注有误或涉及侵权,烦请及时联系删除。

欢迎扫码关注

 

 

 

 

 

首页    行业动态    科技前沿    电力或成AI发展的达摩克利斯之剑
创建时间:2024-04-25 10:24
浏览量:0