一项新分析显示,人工智能在能源消耗方面可能很快就会超过比特币挖矿,该分析得出的结论是,到 2025 年底,人工智能可能会消耗全球数据中心所消耗电力的近一半。
这些估计来自阿姆斯特丹自由大学环境研究所的博士生 Alex de Vries-Gao,他曾在之前的研究中以及在其网站Digiconomist上追踪加密货币的电力消耗及其环境影响。他上周在《cell》杂志上发表了关于人工智能日益增长的电力需求的最新评论。
据德弗里斯-高称,人工智能已经消耗了数据中心高达五分之一的电力。如果没有大型科技公司分享其人工智能模型能耗的具体数据,这个数字很难确定。德弗里斯-高必须根据人工智能专用计算机芯片的供应链进行预测。然而,他和其他试图了解人工智能能耗的研究人员发现,尽管效率有所提高,但人工智能的能耗需求仍在增长——而且增长速度之快足以引起更严格的审查。
随着比特币的替代加密货币——例如以太坊——转向能耗更低的技术,德弗里斯-高表示,他以为自己就要退休了。然后“ChatGPT出现了,”他告诉The Verge。“我当时想,哦天哪,我们开始吧。这又是一项通常能耗密集型的技术,尤其是在竞争极其激烈的市场。”
他看到了几个关键的相似之处。首先是“越大越好”的思维模式。“我们看到这些大型科技公司不断扩大其模型的规模,试图打造出最好的模型,但与此同时,这些模型对资源的需求当然也在增加,”他说。
这种追逐导致了人工智能新数据中心的蓬勃发展,尤其是在美国,那里的数据中心数量比任何其他国家都多。能源公司计划建造新的燃气发电厂和核反应堆,以满足人工智能日益增长的电力需求。电力需求的突然激增会给电网带来压力,并使向清洁能源转换的努力受阻。类似的问题也出现在新的加密矿场中,它们本质上类似于用于验证区块链交易的数据中心。
德弗里斯-高认为,他之前在加密货币挖矿方面的研究与此存在另一个相似之处:要弄清楚这些技术实际消耗了多少能源以及它们对环境的影响是多么困难。诚然,许多开发人工智能工具的大型科技公司都设定了气候目标,并将其温室气体排放量纳入年度可持续发展报告中。正因如此,我们才知道,近年来,谷歌和微软的碳足迹都在增长,因为它们专注于人工智能。但这些公司通常不会对数据进行细分,以明确哪些因素是人工智能造成的。
为了解决这个问题,德弗里斯-高使用了他所谓的“三角测量”技术。他参考了公开的设备细节、分析师的估算以及各公司的财报电话会议,以估算人工智能硬件的产量以及这些硬件可能消耗的能源。为英伟达和AMD等公司生产人工智能芯片的台湾半导体制造公司(TSMC)预计,其用于人工智能的封装芯片产能在2023年至2024年间将增长一倍以上。
在计算出专用人工智能设备的生产能力后,德弗里斯-高将其与这些设备耗电量的信息进行了比较。他发现,去年这些设备消耗的电量可能与德弗里斯-高的祖国荷兰相当。他预计,到2025年底,这个数字将接近一个像英国一样大的国家,届时人工智能的电力需求将达到23吉瓦。
上周,咨询公司 ICF 发布的另一份报告预测,到本世纪末,美国的电力需求将增长 25%,这在很大程度上要归功于人工智能、传统数据中心和比特币挖矿。
目前,要全面预测人工智能的能源消耗及其对环境的影响仍然非常困难——上周,在塔贝尔人工智能新闻中心的支持下, 《麻省理工学院技术评论》发表了一篇深度报道文章,明确阐述了这一点。例如,如果一个人使用人工智能工具推广筹款活动,其查询结果由西弗吉尼亚州的数据中心而不是加利福尼亚州的数据中心回答,那么他产生的碳污染可能会几乎是后者的两倍。能源强度和排放量取决于一系列因素,包括查询类型、回答这些查询的模型规模,以及为数据中心供电的当地电网中可再生能源和化石燃料的比例。
如果科技公司在可持续发展报告中对人工智能更加透明,这个谜团或许就能解开。“为了得到任何数字,你必须经历如此多的步骤,我认为这真是荒谬,”德弗里斯-高说。“这不应该这么难。但不幸的是,它就是这么难。”
展望未来,能源效率的提高是否最终能使电力需求趋于平稳,存在着更大的不确定性。今年早些时候,DeepSeek 宣布其 AI 模型的耗电量仅为Meta 的 Llama 3.1 模型的一小部分,此举引发了人们的质疑:科技公司是否真的需要如此耗能才能在 AI 领域取得进展?问题在于,他们是否会优先构建更高效的模型,而放弃“越大越好”的策略,即简单地投入更多数据和计算能力来实现 AI 雄心。
当以太坊转向比比特币挖矿更节能的交易验证策略时,其耗电量突然下降了 99.988%。环保倡导者已向其他区块链网络施压,要求其效仿。但其他人——尤其是比特币矿工——不愿放弃他们已经在现有硬件上进行的投资。
人工智能还存在“杰文斯悖论”的风险,即更高效的模型仍然会消耗越来越多的电力,因为人们才刚刚开始更多地使用这项技术。无论如何,如果不先进行测量,这个问题就很难得到解决。