真相!和ChatGPT聊一年的天,还不如你洗5次澡耗电!

最新研究表明,全年使用AI 聊天机器人消耗的能源,还比不过你洗上5次澡的开销!

之前总听见有人抱怨AI 耗电多

特别是流传一个说法「ChatGPT一次对话就要消耗3瓦时电量,是谷歌搜索的10倍」。

这是说我们的AI 使用会给环境带来巨大负担?

带着这个疑问,我深入研究了下Marcel Salathé 和Epoch AI 的最新报告


结果发现了一个惊人事实——

我们对AI能耗的认知被严重夸大了

且往下看

和AI 聊一年,耗电有多少?

拿目前主流的GPT-4o来说

每次纯文字交互实际只消耗约0.3瓦时(Wh) 电量,而不是广为流传的3瓦时

假设你每天进行约100次交互(相当于10次对话,每次来回约10轮)

全年下来也就消耗约7.2千瓦时(kWh)。

这数字听着可能没什么概念?

我给你换几个直观对比:

🚗 开车10公里

普通汽油车百公里油耗约7升,开10公里就得烧0.7升油。

每升汽油能量约9.7千瓦时,算下来这短途行驶就用了约7.6千瓦时能量。

电动车效率更高,相同距离大约只需四分之一能耗,但考虑大多数车仍使用汽油,这个比较还是很实在的。

🚿 洗5次热水澡

一次5分钟热水澡,平均用水约32.5升,水温升高30°C。

理想情况下需要1.13千瓦时能量

但考虑实际热损耗,单次热水澡耗能约1.6千瓦时,五次就是8千瓦时。

🛁 泡2次热水澡

相比淋浴,泡澡用水更多。

一个小浴缸就得装80-100升水

考虑热效率,单次就得消耗5.2千瓦时,两次就超过10千瓦时了。

也就是说——

你跟AI 聊个一年的耗电量,竟然连5次热水澡都不如!

为什么之前的估算差这么多?

查了下,发现之前广为流传的3瓦时/查询估计,是来自Alex de Vries 2023年的一项研究。

而最新研究估算出的0.3瓦时,足足低了10倍

哪里出了问题呢?

主要有三大原因:

1. 实际Token数量预估更准确

之前研究假设每次查询会有2000个输出token(约1500词,相当于本文一半长度)

而实际上一般用户的查询输出约500个token(400词左右)。

2. 硬件更高效

新研究基于最新的英伟达H100芯片计算,而非旧款A100。

H100性能更高、能效比更好。

3. 模型参数更少

估计GPT-4o的活跃参数约1000亿,而之前估算GPT-3.5有1750亿参数。

参数减少,计算量和能耗也相应降低。

能耗计算的细节

而这个0.3瓦时,是怎么算出来的?

我来拆解一下这个过程:

首先

GPT-4o可能有约2000亿总参数,但作为一个混合专家模型(MoE)

每次只有大约四分之一的参数被激活,也就是约1000亿活跃参数

每生成一个token(约0.75个词),需要每个活跃参数进行2次浮点运算

所以生成一个token需要2000亿次浮点运算

一般对话模型输出约500个token

所以总共需要500 × 2000亿 = 1 × 10^14次浮点运算

运行这些计算的H100 GPU,官方额定功率为700瓦

但考虑服务器和数据中心开销,每GPU实际耗电约1500瓦

H100每秒能执行989万亿次浮点运算,理论上0.1秒就能处理完一次查询。

但GPU在推理时不可能达到理论峰值,利用率可能只有10%

而且功耗也会降到峰值的70%左右

所以实际上,一次AI查询需要约1秒GPU时间,能耗约为0.3瓦时。

不过,这只是常规使用情况

如果你用AI处理特别长的输入,能耗会大幅增加:

  • 1万token(短论文长度)输入:约2.5瓦时

  • 10万token(约200页文本)输入:高达40瓦时

这是因为Transformer模型处理长输入时,注意力机制的计算量会与输入长度的平方成正比。

其他AI模型的能耗情况呢?

除了GPT-4o,市面上还有各种大模型:

  • GPT-4o-mini:参数量更少,API价格仅为GPT-4o的十分之一,能耗可能也低得多

  • o1和o3-mini:OpenAI的推理模型,虽然每token能耗可能较低,但由于生成长推理链,每次查询总能耗可能更高。非正式测试表明,这些模型生成的token数是GPT-4o的2.5倍

  • Claude 3.5 Sonnet:估计有约4000亿参数,能耗可能与GPT-4o相当

  • DeepSeek-V3:只有371亿活跃参数(总计6710亿参数),每token能耗可能低于GPT-4o

随着技术发展,AI模型能效正在不断提升。

硬件厂商开发更高效芯片,AI公司让小模型能力更强

研究人员发明多token预测等推理优化技术,这些都在降低AI能耗。

但另一方面

如果用户开始大量使用需要复杂推理的高级模型,或者处理更大规模的输入

则单次查询的能耗可能会增加

OpenAI新推出的需要深度推理的Deep Research产品就是这一趋势的早期信号。

AI的上游能耗:训练与硬件制造

除了日常使用的能耗,我们还应考虑AI 的”上游”能源成本

包括模型训练和硬件制造。

模型训练

当前一轮大模型训练耗电约20-25兆瓦,持续大约三个月

足以供应约2万美国家庭用电

但考虑到ChatGPT有3亿用户,而且模型一旦训练好可以使用很长时间

平均到每个用户头上的训练能耗并不高。

硬件制造

制造GPU和服务器所需的”内含能源”也是一个因素。

根据研究,制造AI 硬件的内含碳排放约为模型训练排放的一半

而且因为法国电力清洁(主要来自核电),内含能源比例可能更低。

台积电2023年总耗电约240亿千瓦时,相当于平均功率2.7吉瓦

这与其生产的GPU总功耗相当,但需要考虑GPU使用寿命更长,且台积电产品不仅限于AI芯片。

把AI能耗放在更大视角

将ChatGPT的能耗与日常生活对比:

美国普通家庭年均用电约10,500千瓦时,日均超过28,000瓦时

对比之下,ChatGPT的使用能耗微不足道。

当然,从宏观角度看,一些研究预测到2030年,AI 可能会消耗美国10%的电力

这确实值得关注

目前AI 数据中心估计消耗美国0.3%的电力(约110亿千瓦时),到2030年可能增长30倍。

但就个人使用而言,不必过度担忧AI聊天耗电。

如果你想为环保做贡献,不妨考虑减少开车,选择淋浴而非泡澡,或者缩短些洗澡时间

这些小改变就能轻松抵消一整年的AI 聊天能耗了!

以上

事实就是——

虽然AI 整体发展确实需要关注能源问题,但普通人日常使用AI 的能耗影响,其实微乎其微。

与其担心每天和ChatGPT聊两句会不会毁灭地球,增加碳排放

不如看看自己生活中其他耗能大户,从那里开始节能减排

比如少洗几次澡

效果反而好得多!

(文:AGI Hunt)

欢迎分享

发表评论