当全球陷入大模型军备竞赛,每家科技公司都争相推出参数突破万亿的AI系统时,一个隐蔽的代价正在急速膨胀——能源消耗与碳排放。然而,根据加拿大AI研究员、非营利组织Mila的学者Sasha Luccioni的最新观点,我们至今仍缺少两样最基础的东西:可靠的排放数据和清晰的AI使用图景。
碳排放的“黑箱”
Luccioni在近期的公开演讲和论文中指出,目前业界对于AI碳排放的估计存在巨大偏差。不同研究对同一模型(如GPT-3)训练耗电量的推算相差数倍,根本原因在于缺乏标准化的测量协议。英伟达、谷歌等公司虽然公布了部分能耗数据,但往往只涵盖模型训练阶段,而忽略了更耗电的推理阶段——即模型实际投入应用后被反复调用的过程。
“我们连一个简单的‘碳排放指纹’都没有,怎么去谈减少碳足迹?”——Sasha Luccioni
据估计,一次GPT-3规模的训练约消耗1,300兆瓦时电力,相当于130个美国家庭一年的用电量。而推理阶段的总和,可能比训练高出两个数量级。当数百万用户每天通过API调用生成回复,这股能源洪流正悄然改变AI的环境账。
使用场景的迷雾
除了数据缺失,Luccioni还强调另一个盲点:我们并不真正了解人们用AI在做什么。现有研究更关注训练效率,却很少追踪模型部署后的长期使用模式。例如,自动生成社交媒体文案与辅助医学诊断,二者的计算开销和必要性截然不同。她认为,AI可持续发展需要从“技术效率提升”转向“使用合理性评估”,即对于低价值任务,应鼓励使用更小、更高效的模型,而非一律调用最庞大的大语言模型。
行业响应与挑战
事实上,部分巨头已经开始行动。谷歌宣布其数据中心在2030年前实现全天候无碳能源,微软承诺到2050年消除历史碳排放。但这些承诺是否涵盖第三方通过API调用的AI服务?此外,开源社区和学术机构正推动碳排放追踪工具,如Luccioni参与的CodeCarbon项目和ML CO2 Impact计算器。尽管如此,从自愿披露到强制性标准,还有漫长距离。
编者按:可持续是治理问题
AI的可持续性远非单纯的技术优化,它牵涉到数据治理、商业激励和用户教育。当缺乏透明数据时,市场无法为“低碳AI”形成定价;当使用场景未被审视时,效率提升可能被更高的使用量抵消(即杰文斯悖论)。未来,或许我们需要一种类似“能效标签”的AI模型碳等级标识,让开发者和用户在决策时拥有知情权。而政策制定者应尽快出台统一的AI能耗审计标准,防止绿色清洗。
正如Luccioni所言:“让AI可持续的第一步,是承认我们目前并不知道它到底多不环保。”从数据透明到责任使用,这条道路还很长,但每一步都关乎我们能否在享受智能红利的同时,守住地球的底线。
本文编译自WIRED
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接