DeepMind従業員が投票で労働組合を結成、軍事用AIに抵抗

GoogleのDeepMind研究所の英国従業員が圧倒的多数で労働組合の結成を決定し、同社のAIモデルが軍事用途に使用されることを阻止することを核心的な要求として掲げた。この動きは、テクノロジー労働者が個人の発言から集団交渉へと進化したことを示している。

人工知能倫理と商業利益の長期にわたる駆け引きの中で、Google傘下のDeepMind研究所の英国従業員は最近、決定的な一票を投じた——圧倒的多数で労働組合の結成を決定し、その核心的な要求は同社の人工知能モデルが軍事シーンで使用されることを阻止することである。この出来事は2026年5月5日に発生し、『WIRED』誌が初めて明らかにし、業界で広く注目を集めた。

「邪悪になるな」から「軍拡競争」への亀裂

DeepMindは世界トップクラスのAI研究機関として、2014年にGoogleに買収されて以来、商業応用と倫理的レッドラインの間でバランスを保とうとしてきた。しかし近年、Googleは五角大楼(ペンタゴン)との契約協力を拡大し続けており、Project Mavenを通じてAIを無人機の目標識別に使用したり、米国防総省の「クラウドサービス共同調達計画」に参加したりしている。これらの動きはDeepMind内部で大きな不満を引き起こした。

「我々がDeepMindに参加したのは、AIが人類に利益をもたらすと信じたからであって、より効率的な殺人機械を作るためではない」と、投票に参加したある研究者は匿名で語った。「もし会社がこの道を歩み続けるなら、我々は集団の力で『ノー』と言う」

『WIRED』の報道によると、今回の労働組合投票にはDeepMind英国本部の数百名の従業員が参加し、投票率は80%を超え、そのうち約90%の票が労働組合の結成を支持した。労働組合は、労働条件、倫理政策、契約審査などの問題について会社の経営陣と交渉する法的権限を持つことになる。現在、労働組合はGoogle上層部に正式な要求を提出し、独立した倫理審査委員会の設立と、軍事応用に関わる契約に対する従業員の拒否権の行使を求めている。

テクノロジー労働者の「覚醒時代」

DeepMind従業員の行動は孤立した事例ではない。2022年、Googleは同様の倫理的懸念を提起したAI研究者を解雇したことで大規模な抗議を引き起こした。2024年には、Microsoftの従業員もイスラエル軍との契約終了を会社に連名で要求した。今回、労働組合という制度化された方法で権利を擁護することは、テクノロジー労働者が個人の発言から集団交渉へとアップグレードしたことを示している。

業界の背景から見ると、軍事AIは大国間の駆け引きの焦点になりつつある。米国防総省が2025年に発表した新版『AI倫理ガイドライン』は「責任ある使用」を強調しているが、致死性自律兵器システムを明確に禁止していない。一方、中国やEUなども軍事AIの配備を加速している。この傾向は多くのAI従事者に深刻な不安を与えている——彼らは自身の研究成果が大量破壊兵器に悪用されることを懸念している。

編集者注:倫理は選択肢ではなく、最低ラインである

テクノロジー企業と軍事部門の協力は常にセンシティブなテーマである。一方では、国家安全保障のニーズは客観的に存在する。他方では、AI技術が一旦武器化されれば、制御不能な連鎖反応を引き起こす可能性がある。DeepMind従業員の選択は、技術開発者が技術応用に対する制御権を主動的に取り戻そうとしていることを示している。労働組合の力はGoogleの意思決定経路を本当に変えることができるのか?答えはまだ明確ではないが、この行動は少なくとも業界に対し、従業員はもはや沈黙する歯車ではなく、倫理の門番であるというシグナルを発した。

注目すべきは、Googleの公式対応では「従業員の権利を尊重するが、研究部門の契約決定は商業と国家安全保障の要素を両立させる必要がある」と述べていることだ。このような曖昧な立場では内部の論争を鎮めることは難しい。今後、労働組合と会社の交渉が決裂すれば、従業員がより過激な行動——例えば集団辞職や公開告発——を取る可能性も排除できない。トップ人材に依存するDeepMindにとって、これは耐え難い損失となるだろう。

本記事はWIREDから翻訳・編集