我们只做专业的油气咨询服务商

专注于石油行业领域

【新闻资讯】
当前所在的位置:首页>新闻资讯>资讯详情
AI用电量有多惊人?行业大佬为什么不愿透露?
2025年06月25日•新闻资讯

连线杂志  6月22日报道 越来越多的研究开始关注人工智能能源消耗问题,但那些开发热门模型的公司,却始终对自己的碳排放守口如瓶。

OpenAI CEO山姆·奥特曼(Sam Altman)在上周一篇长推文的旁注中写道,“人们常常好奇,一次ChatGPT 查询到底消耗多少能源?” 奥特曼表示,平均一次查询大约消耗 0.34 瓦时的电量:“差不多相当于一个烤箱工作一秒多一点,或者一个高效节能灯泡点亮几分钟所用的量。

对于一家拥有8亿周活跃用户(且还在持续增长)的公司来说,这些搜索消耗多少能源,正变得越来越受公众关注。但专家指出,奥特曼给出的数字,如果没有OpenAI更多公开的信息支撑,其意义有限。比如,什么算是“一次平均查询”?是否包括了图像生成?奥特曼给出的数据是否涵盖了训练AI模型和为服务器降温等额外能耗?

因此,AI公司Hugging Face的气候负责人萨沙·卢奇奥尼(Sasha Luccioni)对奥特曼的数据并不太信服。她直言道,“奥特曼说的数字可能是随便编的”(OpenAI没有回应关于这个数字来源的更多信息请求)

人工智能正逐渐渗透到我们生活的方方面面,也有可能改变我们的能源系统。而就在我们努力应对气候变化的紧要关头,碳排放却增加了。如今,越来越多的新研究正试图用数据来量化我们在使用人工智能过程中到底排放了多少碳。

而该研究面临的挑战在于,像OpenAI这样的主要企业几乎不披露环境相关信息。Hugging Face的萨沙·卢奇奥尼和另外三位作者本周提交了一篇同行评审论文,探讨了AI模型环境透明度的必要性。这篇论文分析道,卢奇奥尼和团队利用OpenRouter(一个大型语言模型使用量排行榜)数据发现,2025年5月,84%的大型语言模型使用量来自于完全没有环境信息披露的模型。这意味着,用户绝大多数选择了对环境影响完全未知的模型。

让人感到震惊的是,你买辆车可以清楚知道它的油耗,但我们每天使用这么多人工智能工具,却完全没有任何效率指标、排放数据,什么都没有。卢奇奥尼表示,“这不是法律要求,也没有监管规定。但鉴于当前的气候危机,这应该成为各地监管部门的重中之重。”

卢奇奥尼表示,正因为缺乏透明度,公众接收到的一些估算数据完全不合理,却信奉为事实。比如你可能听过,一次普通的ChatGPT请求消耗的能量是一次普通谷歌搜索的10倍。卢奇奥尼和她的团队追溯到这一说法,源自谷歌母公司Alphabet董事长约翰·海尼斯(John Hennessy)在2023年发表的公开言论。

一位来自谷歌董事会成员对另一家与他毫无关系的公司(OpenAI)所开发的产品所做的说法充其量也只是牵强附会。然而,卢奇奥尼的分析发现,这个数字在新闻报道和政策文件中被反复引用。

大家把一句随口说的话当成了正式数据,甚至影响了政策和公众对这些问题的看法。卢奇奥尼说道,“问题的关键是,我们根本没有准确的数字。即使是那些简单粗略的估算,也常被当作权威,但事实并非如此。”

想要更准确地了解实际情况,一种方法是借助开源模型。一些科技巨头,比如OpenAI和Anthropic,将他们的模型设为专有,外部研究人员无法独立核实其能耗。但也有公司会公开部分模型内容,让研究人员能够更准确地评估其排放情况。

周四(6月20日)发表在Frontiers of Communication 期刊上的一项研究评估了14款开源大语言模型,其中包括两款Meta的Llama模型和三款DeepSeek模型。研究发现,在研究人员提交的问题测试中,有些模型的能耗比其他模型高出多达50%。研究人员向这些模型提交了1000个基准测试问题,内容涵盖高中历史和哲学等话题;其中一半的问题是多项选择题,答案仅限于一个词,而另一半则是开放式问题,允许更自由的格式和较长的回答。研究发现,推理型模型产生的“思考token”(即模型在生成答案时内部推理的计算量,也是能耗的重要指标)远多于更简洁的模型。也不奇怪,这些推理型模型在处理复杂问题时准确率更高。(不过它们在简洁表达方面表现不佳:比如在多项选择阶段,尽管明确要求只从给定选项中作答,复杂模型往往会给出多个词的答案。)

这项研究的第一作者、慕尼黑应用科学大学博士生马克西米连·道纳(Maximilian Dauner)表示,他希望人工智能的使用能够朝着更高效的方向发展,根据不同的查询自动选择能耗更低的模型。他设想一个流程:对于较小、较简单的问题,系统会自动调配给能耗较低但依然能给出准确答案的模型。即使是更小的模型,在处理简单任务时也能取得很好的效果,而且不会在过程中排放大量二氧化碳。

一些科技公司已经开始这么做了。谷歌和微软曾告诉《连线》杂志,他们的搜索功能在可能的情况下会使用更小的模型,这也意味着用户能获得更快的响应速度。但总体来说,模型提供商并没有积极引导用户使用更节能的模型。麻省理工学院气候与可持续发展联盟的计算与气候影响研究员诺曼·巴希尔(Noman Bashir)表示,模型回答问题的速度对能耗影响很大,但在向用户展示AI产品时,并没有说明这一点。

巴希尔表示,“我们的目标是尽可能快地完成所有推理计算,这样你就不会离开他们的平台。如果ChatGPT要等五分钟才给你答复,你肯定会转向那些能立刻响应的工具。”

不过,在计算复杂人工智能查询能耗时,还有很多其他因素需要考虑,因为这不仅是理论问题,运行查询的环境也很关键。巴希尔指出,物理硬件在计算排放时会产生影响。道纳的实验是在英伟达(Nvidia) A100显卡上进行的,但英伟达专门为人工智能设计的H100显卡,按照该公司说法,越来越受欢迎,能耗也高得多。

谈到碳排放,物理基础设施也起着重要作用。大型数据中心需要冷却系统、照明和网络设备,这些都会额外增加能耗;它们通常按照昼夜周期运行,晚上查询减少时会适当休息。数据中心还连接着不同类型的电网,有些主要依靠化石燃料供电,有些则依赖可再生能源,这取决于数据中心所在的地点。

巴希尔将那些在计算AI查询排放时未考虑数据中心需求的研究比作只测量汽车车轮转速的油耗测试,“你却没考虑到这个车轮还得承载整辆车和乘客。”

或许对我们了解人工智能排放影响最关键的是,道纳研究中使用的开源模型,只占当今消费者所用AI模型的一小部分。训练一个模型以及更新已部署的模型都消耗大量能源,而这些数据很多大公司都不愿公开。例如,OpenAI的奥特曼关于ChatGPT的“灯泡能耗”说法,是否包含了训练支撑聊天机器人的模型所用的全部能源,目前尚不清楚。缺乏更多信息披露,公众很难真正了解这项技术对地球造成了多大影响。

“如果我有一根魔法棒,我会强制要求所有在全球任何地方、任何应用场景下投入生产的人工智能公司,必须公开它们的碳排放数据,” 卢奇奥尼说。  

电子情报信息
  • 《石化科技周刊/报》
  • 《石油公司周刊/报》
  • 《石油要闻周刊/报》
  • 《石油科技周刊/报》
  • 《天然气市场周报》
  • 《油气管网观察》
首页   |   关于我们   |   服务介绍   |   石油周刊   |   新闻资讯   |   企业动态   |   企业展厅   |   油价信息   |   展会信息   |   投稿

工作时间:周一到周五 8:30 - 17:30
客服电话:010-63822758
E-mail:jd@cpptn.com.cn

扫描进入手机站

(c)2007-2025 cpptn.com.cn All Rights Reserved  企业邮箱