数据中心月耗3000万加仑水 数月无人察觉

美国某数据中心因冷却系统故障,在数月内消耗约3000万加仑淡水,相当于一个小型湖泊水量,却未被运营方及时发现。这一事件凸显AI产业飞速扩张背后严峻的环境代价:数据中心冷却用水量激增,而监管缺口与技术局限让“AI治水”愿景蒙上阴影。本文编译自Ars Technica。

2026年5月,一则来自Ars Technica的独家调查引发科技界震动:位于美国西南部的一座大型数据中心,因冷却系统持续泄漏,在足足四个月里白白消耗了约3000万加仑的饮用水——相当于450个标准游泳池的水量。更令人震惊的是,这座数据中心的所有者、一家知名云服务商,直到季度审计时才发现问题,期间没有任何自动化告警或现场检查发现异常。

编者按:这不是孤例。随着生成式AI和云计算需求爆发式增长,全球数据中心的耗水量正以每年15%的速度攀升。当科技巨头们高喊“用AI解决气候变化”时,它们自己正在成为水资源的隐形饕客。

事件回顾:一场无法解释的“水荒”

据Ars Technica获取的内部文件显示,该数据中心于2026年1月完成规模扩展,新增了大量GPU服务器集群用于AI模型训练。然而,扩建后的冷却系统设计存在缺陷——一组并联的冷却塔阀门因软件配置错误长期处于最大开度,导致冷却水以设计流量2.5倍的速度持续循环蒸发。按每加仑水约0.004美元的水价计算,这次泄漏造成的直接经济损失约12万美元,但真正的环境冲击远超账本:当地社区从同一水源取水的居民抱怨水压下降长达两个月,市政部门却以“未达到紧急阈值”为由未深入调查。

更值得玩味的是,该公司的自动监控平台记录了月度用水量异常飙升,但系统阈值设定仅针对“设备级故障”,未将总用水量纳入关键绩效指标。直到一名实习生偶然发现水费账单异常,运营团队才手动进场排查。这一漏洞暴露了数据中心运维中普遍存在的“雾里看花”——监控系统关注芯片温度、PUE能效,却对水资源的浪费视而不见。

AI的“水命”:从冷却到芯片制造

数据中心为什么需要这么多水?答案在于日益严苛的热管理需求。一台高端GPU在满载时功耗可达700瓦,产生的热量足以使机架温度直逼60°C。尽管液冷、浸没式冷却等新技术正在推广,但传统蒸发冷却(利用水蒸发吸热)仍占据全球数据中心冷却方案的60%以上,尤其在干旱地区,水是效率最高的散热介质。

更不为人知的是,AI芯片制造本身也是耗水大户。台积电等晶圆厂生产一块12英寸晶圆需耗水约2000加仑,而训练一个GPT-4级别的模型,仅芯片制造环节就间接消耗相当于数千个家庭一年用水的量。有研究者估算,一次大型模型训练(包括硬件制造和运行)的总水足迹可能超过100万升——相当于一个中型水塔。

悖论:AI能否逃出“水的五指山”?

面对质疑,科技公司纷纷祭出“AI治水”方案。微软宣布其“水负未来”计划,通过AI优化冷却调度,承诺2030年前实现水资源正效益;谷歌则使用机器学习模型预测气象与负载,动态调节冷却塔运行,据称已将部分数据中心耗水降低30%。然而,Ars Technica的报道指出,这些优化往往只针对新建或现代设施,老旧数据中心及一次性扩建项目依然缺乏有效监管。

行业分析师认为,问题的根源不在于技术,而在于激励机制。当前数据中心的盈利模型基于算力利用率,水、电等环境成本被内部分担而非直接关联到算力价格。只要水费低到可以忽略,就没有企业愿意投资高成本封闭循环冷却系统。“AI能帮我们节省30%的水,但如果你本来就不在意那30%,优化就只是一张PPT。”一位匿名工程师在报道中评论。

批判性视角:AI行业正在经历一场“精神分裂”——一边研发气候模型预测干旱,一边用海量淡水冷却自己的利润引擎。如果不从政策端强制设立用水配额与实时报告制度,技术进步反倒可能掩盖问题。

未来何解?三条可行路径

要打破“AI加剧水危机”的恶性循环,行业需要三管齐下:

第一,强制透明化。 各国监管机构应要求数据中心按月公开蒸发耗水量、回水利用率及水源类型,让环境成本变成可量化指标。目前只有欧盟《能源效率指令》部分覆盖用水,美国EPA仍在制定标准。

第二,推广闭环冷却。 将传统蒸发冷却改造为风冷+液冷混合系统,或采用无水冷却芯片(如相变散热)。部分厂商推出的“无水数据中心”已开始试点,但初期投资是传统方案的2-3倍。

第三,用AI反哺AI。 将机器学习模型直接用于冷却网络设计,例如深度强化学习动态分配冷量。谷歌“DeepMind for Cooling”项目曾节省40%冷却能耗,但用水量优化并非其核心目标——这种偏科需纠正。

回到那3000万加仑水。当Ars Technica记者追问该公司后续措施时,发言人仅回应“已更新监控阈值并加强员工培训”。但谁又知道,全球还有多少数据中心正在无声无息地“漏水”?

本文编译自Ars Technica