This article has not been translated into English yet. Showing the original Chinese version.

最新AI热潮提案:在家托管微型数据中心

一项新计划提出让居民在家中安装微型数据中心,以加速AI计算部署并给予经济补偿。该模式借鉴了加密货币挖矿的分布式思路,但面临能耗、噪音和监管挑战。分析人士认为,这可能是边缘计算与分布式AI基础设施结合的下一波浪潮,但也需平衡利益与社区影响。

把AI算力“搬回家”?新提案引发热议

近日,一家名为“HomeCompute”的初创公司提出了一项大胆计划:鼓励普通居民在家中托管微型数据中心——一个冰箱大小的机柜,内置GPU集群和液冷系统,用于执行AI推理和训练任务。居民每月可因此获得300至800美元不等的租金回报,而公司则能快速部署分布式算力,缓解集中式数据中心排队严重的瓶颈。

该提案的灵感来源于早期的加密货币“挖矿”模式,但目标转向了更主流的AI计算。HomeCompute创始人表示:“我们正在将AI算力民主化,让每个人的客厅都成为云计算节点。”据称,已有超过5000户家庭报名参与试点,主要来自得克萨斯州和亚利桑那州等电价较低的地区。

“这不是科幻小说——我们已经在部分社区完成了硬件安装。居民只需要提供空间、电力和网络,剩下的运维由我们远程完成。”——HomeCompute新闻稿

技术细节与行业背景

微型数据中心的核心是英伟达最新的B200“黑井”GPU,每个机柜可提供约4 petaFLOPS的AI算力,相当于一台小型超算。设备运行时噪音约45分贝(接近冰箱嗡鸣),功耗约7千瓦。为了鼓励参与,HomeCompute与当地电力公司达成协议,通过“需求响应”机制在电网高峰时段关停部分节点,获取补贴。

从行业角度看,这一方案反映了当前AI基础设施的深刻矛盾:云端GPU供不应求,而建设大型数据中心面临土地、电力、环保等多重限制。2025年,全球AI算力缺口预计达30%,导致模型训练成本飙升。分布式家庭数据中心恰好能利用住宅区丰富的低压电力和闲置空间,但网络延迟、散热和安全问题仍需解决。

值得注意的是,HomeCompute并非第一个吃螃蟹者。2024年,CoreWeave曾尝试在办公楼地下室部署模块化服务器,而另一家公司“Folding@home”也曾用众包方式推动蛋白质折叠计算。但将计算节点直接送入住宅,尚属首次。

潜在风险与监管争议

虽然经济补偿颇具吸引力,但反对声音同样强烈。首先是能源消耗:7千瓦设备24小时运行,每月耗电约5000度,远超普通家庭(约1000度)。这意味着每户可能因此增加200美元电费(与租金相抵后净收益缩水)。对于电网的压力,尤其在农村地区,可能引发变压器过载。

其次是热管理:即使采用液冷,机柜仍会向室内排放热量,夏季可能导致空调负荷上升。芝加哥一户试点居民反映:“客厅温度升高了3度,我们不得不开更强的冷气。”此外,设备维修时需技术人员上门,存在隐私与安全担忧——摄像头、麦克风等传感器是否会被滥用?

监管层面,美国联邦通信委员会(FCC)尚未明确家庭数据中心是否属于“通信设施”或“商业用途”,这涉及建筑法规、消防规范和保险责任。部分社区协会已明确禁止此类设备,认为其“破坏社区美观”且“影响房产价值”。

编者按:分布式算力的“双刃剑”

从技术演进看,家庭微型数据中心确有可能成为AI算力“毛细血管”的一部分,尤其适合对延迟不敏感、或数据量较小的推理任务(如语音助手、图像生成)。但大型语言模型训练仍需依赖万卡集群,家庭节点难以替代。更值得关注的是,该模式将改变人与计算基础设施的关系:当每家每户都有“默认”的计算贡献时,隐私边界、数字劳动报酬、碳足迹分配等问题将浮出水面。

HomeCompute的尝试更像是一次社会实验。它能否成功,不仅取决于技术成熟度,还取决于监管框架和居民信任。如果能够平衡各方利益,它或许为“绿色AI”提供新路径;反之,则可能沦为又一个“挖矿”泡沫。

本文编译自Ars Technica