Anthropic与五角大楼就Claude使用权激烈争执

据报道,AI公司Anthropic与美国五角大楼就其旗舰模型Claude的使用权限展开争论。核心争议在于Claude是否可用于大规模国内监视和自主武器开发。这一事件凸显了AI技术在军事领域的伦理边界与商业考量间的冲突。Anthropic强调安全优先,而国防部寻求强大AI助力国家安全,引发业界广泛关注。

据TechCrunch报道,AI初创公司Anthropic与美国国防部(五角大楼)正就Claude AI模型的使用权限展开激烈争论。这一事件于2026年2月16日曝光,作者Anthony Ha指出,争端焦点在于Claude是否可被用于大规模国内监视和自主武器开发。作为AI安全领域的领军企业,Anthropic的立场备受瞩目。

事件概述

TechCrunch的报道揭示,五角大楼希望将Anthropic的Claude模型纳入其AI战略框架中,用于提升情报分析和军事决策能力。然而,Anthropic内部人士透露,公司高层对某些应用场景持强烈反对态度。特别是,

是否Claude可被用于大规模国内监视(mass domestic surveillance)和自主武器(autonomous weapons)
,已成为双方的主要分歧点。

Claude系列模型以其强大的自然语言处理和推理能力闻名,自2023年推出以来,已成为OpenAI GPT系列的主要竞争者。Anthropic由前OpenAI高管创立,始终强调“负责任的AI开发”,并通过宪法AI(Constitutional AI)框架确保模型遵守伦理准则。

Anthropic的安全底线

Anthropic的创始人Dario Amodei曾公开表示,公司拒绝与军事项目深度合作,以避免AI被滥用于有害场景。2024年,Anthropic已明确禁止Claude用于武器设计或监视工具开发。这一立场源于行业对AI军备竞赛的担忧。早在2023年,超过1000名AI研究者签署公开信,呼吁禁止AI驱动的致命自主武器(LAWS)。

补充行业背景:Anthropic获得亚马逊和谷歌数十亿美元投资,但这些资金附带条件,要求优先考虑商业而非军事应用。公司2025年发布的Claude 3.5模型,进一步强化了安全防护层,包括拒绝生成暴力内容或敏感情报分析指令。这次与五角大楼的争执,可能源于国防部试图绕过这些限制,通过政府合同获取模型访问权。

五角大楼的AI雄心

美国国防部近年来加速AI布局。2023年的《国家国防战略》强调AI在情报、监视和打击领域的核心作用。五角大楼已投资Replicator计划,计划部署数千架AI无人机。类似地,Palantir和Anduril等公司已与军方深度合作,提供AI驱动的战场分析工具。

本文由 赢政天下 独家编译 - 转载请注明来源。

报道称,五角大楼视Claude为“下一代情报引擎”,希望用于处理海量数据,实现实时威胁识别。但国内监视应用尤为敏感:在美国,NSA的PRISM项目曾因侵犯隐私饱受批评。将Claude用于监控公民通信,可能引发宪法第四修正案争议。此外,自主武器如AI无人机群,若脱离人类控制,将放大误判风险,潜在导致平民伤亡。

伦理困境与全球影响

这一争端折射出AI发展的双重性。一方面,AI可提升国防效率,如在乌克兰冲突中,AI辅助无人机已证明价值;另一方面,缺乏监管的军事AI可能引发军备竞赛。中国和俄罗斯也在推进类似技术,2025年俄罗斯发布Sovereign AI战略,进一步加剧地缘紧张。

欧盟的《AI法案》(2024年生效)将高风险AI(如监视和武器)列为禁区,美国国会正审议《AI安全法案》。Anthropic的抵抗,可能推动行业标准制定,但也面临商业压力:拒绝军方合同或导致资金短缺。

编者按:AI安全的十字路口

作为AI科技新闻编辑,我认为这一事件标志着AI从实验室走向战场的关键转折。Anthropic的坚持值得赞许,但现实中,技术扩散不可逆转。五角大楼若转向开源模型如Llama,可能绕过限制,增加全球风险。建议行业联合制定“AI日内瓦公约”,明确军事红线。同时,企业应平衡盈利与伦理,避免成为“AI军火商”。未来,Claude的使用协议将成为AI治理的试金石。

展望2026年,随着Claude 4.0临近,这一争执或将升级为法律诉讼,影响整个AI生态。开发者、监管者和军方需对话,共筑安全边界。

(本文约1050字)

本文编译自TechCrunch,作者Anthony Ha,2026-02-16。