Sam Altman提醒:人类也消耗海量能量

OpenAI CEO Sam Altman在最新言论中反击AI能耗批评,强调‘训练一个人类也需要大量能量’。他指出人类大脑日常运转和教育过程同样耗费巨量资源,此言引发热议。在AI训练电力需求飙升的当下,这一比喻呼吁更理性看待科技能耗问题。本文深入剖析背景、数据对比及行业影响。

Sam Altman的犀利回应:人类并非低能耗存在

在人工智能(AI)领域,能耗问题已成为焦点议题。OpenAI首席执行官Sam Altman近日发表言论,直指批评者忽略了一个事实:人类自身也消耗大量能量。他幽默却犀利地表示,‘训练一个人类也需要大量能量’(It also takes a lot of energy to train a human.)。这一番话源于TechCrunch报道,迅速在科技圈引发讨论。

‘It also takes a lot of energy to train a human.’ —— Sam Altman

Altman的言论背景源于AI模型训练的电力争议。随着ChatGPT等生成式AI的爆发,数据中心电力需求激增。批评者担忧,这将加剧全球能源危机和碳排放。例如,训练一个像GPT-3规模的模型,据估计消耗约1170兆瓦时(MWh)电力,相当于美国100多户家庭一年的用电量。相比之下,谷歌和微软等巨头已承诺巨资扩建数据中心,预计到2030年,AI相关能耗可能占全球电力总量的8%-10%。

AI能耗危机:从训练到推理的全链条挑战

AI能耗问题并非新话题。训练大型语言模型(LLM)需要数千块高端GPU连续运行数月,这些芯片如NVIDIA H100每块功耗高达700瓦。推理阶段(即日常使用)虽单个查询仅需几瓦时,但亿万用户累积效应惊人。国际能源署(IEA)预测,2026年数据中心全球电力需求将达945TWh,AI是主要推手。

行业巨头已行动起来。微软与OpenAI合作,推动核能复兴;Altman本人投资Helion Energy,探索聚变能源。亚马逊和谷歌则转向可再生能源,如风能和太阳能。但挑战犹存:数据中心选址需靠近电力供应,且AI模型规模呈指数增长,‘摩尔定律’失效后,能效提升放缓。

人类能耗的另一面:大脑与教育的‘隐形账单’

Altman的比喻并非空穴来风。人类大脑平均功耗仅20瓦,远低于一台笔记本电脑(约50-100瓦)。但放大视角:一个成年人一生大脑能耗相当于数吨煤炭。一天下来,大脑耗电约0.48千瓦时(kWh),一年约175kWh。若计入全人类70亿人,年总能耗超1200TWh——超过许多国家年用电总量。

更关键的是‘训练人类’:教育体系的能源足迹庞大。美国K-12教育每年电力支出超100亿美元,大学实验室和校园基础设施更是天文数字。全球教育碳足迹估计达数亿吨CO2当量,包括教材印刷、交通和建筑能耗。相比AI的‘短期爆发’,人类‘训练’是终身过程,却鲜有人量化批评。

本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com

这一对比并非为AI开脱,而是呼吁公平评估。Altman暗示,科技进步应以人类福祉衡量,而非简单能耗标签。毕竟,AI正加速药物发现、气候建模等领域,潜在节能效益或远超成本。

编者按:理性看待AI能耗,追求可持续创新

作为AI科技新闻编辑,我们认为Altman的提醒发人深省,但不能止步于比喻。AI能耗确为紧迫挑战:当前90%数据中心依赖化石燃料,需加速绿色转型。政策层面,中国‘东数西算’工程和欧盟AI法案正强调能效标准,企业如百度、阿里也在部署液冷技术和边缘计算。

展望未来,量子计算和神经形态芯片或重塑格局。Altman的乐观主义值得借鉴:投资清洁能源,而非畏首畏尾。同时,公众应警惕‘绿色洗白’,要求透明披露如训练碳足迹。AI如双刃剑,人类需智慧驾驭,方能共赢。

行业影响与展望

此番言论或助OpenAI化解舆论压力,尤其在GPT-5传闻四起之际。投资者关注点转向可持续AI,VC资金涌入能效初创。长远看,Altman推动的‘超级智能’愿景依赖能源突破,否则将成瓶颈。

总之,人类与AI的能耗之争,折射科技伦理辩论。平衡创新与责任,方是正途。

本文编译自TechCrunch,作者Anthony Ha,原文日期2026-02-22。