美国防部:Anthropic“红线”使其成国家安全“不可接受风险”

美国国防部表示,对Anthropic可能在“作战行动”中“试图禁用其技术”的担忧,证实了将其列为供应链风险的决定。Anthropic作为AI安全先锋,以严格的‘红线’政策闻名,包括拒绝军事应用。这一事件凸显AI企业在国家安全与伦理底线间的紧张关系,可能影响未来军用AI采购与国际合作。(128字)

事件概述

据TechCrunch报道,美国国防部(DOD)近日公开表示,AI公司Anthropic的“红线”政策使其成为国家安全的“不可接受风险”。国防部担忧Anthropic可能在“作战行动”中“试图禁用其技术”,从而验证了将其纳入供应链风险名单的决定。这一声明于2026年3月18日发布,由记者Rebecca Bellan撰写,迅速引发AI行业与军方的高度关注。

“国防部表示,对Anthropic可能在‘作战行动’中‘试图禁用其技术’的担忧,证实了将其列为供应链风险的决定。”

这一事件并非孤立,而是中美AI军备竞赛背景下,美军对本土AI企业忠诚度的考验。Anthropic作为Claude大模型的开发者,以AI安全和伦理为旗帜,却因其原则性立场卷入国家安全争议。

Anthropic的“红线”政策与公司背景

Anthropic成立于2021年,由前OpenAI高管Dario Amodei兄弟创立。公司以“宪法AI”(Constitutional AI)框架闻名,该框架通过预设的“宪法”原则约束模型行为,避免有害输出。Anthropic公开承诺不开发用于武器化的AI技术,尤其拒绝参与网络战或自主武器系统。这被称为其“红线”——一种自我设限的道德底线。

在行业背景下,AI安全已成为焦点。OpenAI曾与微软合作开发军用AI,但Anthropic选择独立路径,获得亚马逊和谷歌的投资,却明确排除军事用途。2024年,Anthropic发布Claude 3系列模型,性能直追GPT-4o,同时强调对齐人类价值观。然而,正如国防部所指,其“红线”在战争场景下可能导致技术“失控”,如AI系统拒绝执行命令或自我关闭。

补充行业知识:美国《国家AI倡议法》要求军方优先本土供应商,但供应链风险评估(SCR)机制日益严格。2025年以来,DOD已将多家中国AI企业列入黑名单,美企如Anthropic也因伦理政策面临审查。这反映出军方对“可控AI”的迫切需求,尤其在台海、南海潜在冲突中。

国防部的风险评估与回应

国防部在声明中强调,Anthropic的条款禁止在“warfighting operations”(作战行动)中使用其技术。这意味着,如果美军采购Claude模型用于情报分析或决策支持,Anthropic有权远程禁用,构成“不可接受风险”。DOD供应链风险办公室(SCRO)据此将其列为高风险供应商,禁止联邦合同。

本文由 赢政天下编译整理,更多海外AI资讯,尽在 赢政天下

类似事件并非首次。2023年,OpenAI调整政策,允许有限军用,但Anthropic坚持底线。国防部发言人表示:“我们不能依赖可能在关键时刻背叛的AI。”这一决定可能导致Anthropic损失巨额军方订单,同时刺激Palantir、Anduril等军工AI企业崛起。

行业影响与全球视角

此事件对AI生态冲击巨大。首先,强化了“AI主权”概念:企业伦理 vs. 国家利益。其次,加速军民融合,美军可能转向“封闭AI”开发,如DARPA的ACE项目。第三,影响投资:亚马逊作为Anthropic股东,或面临两难。

全球来看,中国华为、百度等已推出军民两用AI,美方担忧技术外流。欧盟《AI法案》也强调高风险AI审查,这一事件或成国际范例。

编者按:伦理红线与国家安全的博弈

作为AI科技新闻编辑,我认为Anthropic的“红线”体现了科技人文主义,但国防部的回应揭示现实残酷:在AI时代,国家安全高于一切。未来,企业需平衡伦理与合规,或许通过“双轨制”AI(民用安全版、军用定制版)化解矛盾。这不仅是Anthropic的危机,更是行业分水岭——谁掌控AI,谁主宰未来。

事件发展值得持续跟踪,美中AI竞赛将更趋激烈。

本文编译自TechCrunch,作者:Rebecca Bellan,日期:2026-03-18。