DeepMind员工投票成立工会,抵制军用AI

谷歌旗下AI实验室DeepMind的英国员工以压倒性多数投票决定成立工会,旨在阻止公司的人工智能模型被用于军事领域。此次行动源于员工对近期与军方签订的合同深感不安,认为这违背了AI伦理原则。工会的成立标志着科技工作者集体维权的新阶段,或将影响整个行业的军备合作。

在人工智能伦理与商业利益的长期博弈中,谷歌旗下DeepMind实验室的英国员工近日投下了关键一票——以压倒性多数决定成立工会,其核心诉求是阻止该公司的人工智能模型被用于军事场景。这一事件发生在2026年5月5日,由《连线》杂志率先披露,引发业界广泛关注。

从“不作恶”到“军备竞赛”的裂痕

DeepMind作为全球顶尖的AI研究机构,自2014年被谷歌收购后,始终试图在商业应用与伦理红线之间保持平衡。然而,近年来谷歌持续扩大与五角大楼的合同合作,包括通过Project Maven项目将AI用于无人机目标识别,以及参与美国国防部的“云服务联合采购计划”。这些举措激起了DeepMind内部极大的不满。

“我们加入DeepMind是相信AI能造福人类,而不是制造更高效的杀人机器。”一名参与投票的研究员匿名表示,“如果公司坚持走这条路,我们将用集体力量说‘不’。”

据《连线》报道,此次工会投票由DeepMind英国总部的数百名员工参与,投票率超过80%,其中约90%的票数支持成立工会。工会将拥有与公司管理层就工作条件、伦理政策以及合同审查等问题进行谈判的法律权力。目前,工会已向谷歌高层提交正式诉求,要求设立独立的伦理审查委员会,并赋予员工对涉及军事应用的合同行使否决权。

科技工作者的“觉醒时代”

DeepMind员工的行动并非孤例。2022年,谷歌因解雇提出类似伦理担忧的一位AI研究员而引发大规模抗议;2024年,微软员工也曾联名要求公司终止与以色列军方的合同。此次通过工会这种制度化方式维权,标志着科技工作者从个体发声走向集体协商的升级。

从行业背景看,军事AI正成为大国博弈的焦点。美国国防部2025年公布的新版《AI伦理准则》虽强调“负责任使用”,但未明确禁止致命自主武器系统。与此同时,中国、欧盟等也在加速军事AI部署。这种趋势让许多AI从业者深感焦虑——他们担心自己的研究成果被滥用于大规模杀伤性武器。

编者按:伦理不是选项,而是底线

科技公司与军事部门的合作始终是敏感议题。一方面,国家安全需求客观存在;另一方面,AI技术一旦被武器化,可能引发不可控的连锁反应。DeepMind员工的选择表明,技术开发者正在主动夺回对技术应用的控制权。工会的力量是否能真正改变谷歌的决策路径?答案尚不明朗,但这一行动至少向行业发出信号:员工不再是沉默的齿轮,而是伦理的守门人。

值得注意的是,谷歌官方回应称“尊重员工权益,但研究部门的合同决策需要兼顾商业和国家安全因素”。这种模糊立场难以平息内部争议。未来,如果工会与公司谈判破裂,不排除员工采取更激进的行动——比如集体辞职或公开举报。这对于依赖顶尖人才的DeepMind而言,将是难以承受的损失。

本文编译自WIRED