五角大楼针对Anthropic的文化战策略适得其反

上周四,加州法官临时叫停五角大楼将Anthropic列为供应链风险的决定,禁止政府机构停止使用其AI模型。这是长达一个月的争端最新进展。五角大楼原本试图通过行政手段限制Anthropic的Claude AI在政府中的应用,但此举被视为文化战的一部分,反倒引发法律反弹,暴露了国防部在AI领域的政治干预风险。Anthropic作为AI安全先锋,此事件凸显了军用AI开发的伦理困境。(128字)

事件始末:法官的临时禁令

2026年3月26日,上周四,一位加州联邦法官发布临时禁令,阻止美国国防部(Pentagon)将AI公司Anthropic标记为'供应链风险',并要求政府机构立即停止使用其AI模型。这一决定迅速成为AI行业焦点,标志着五角大楼对Anthropic长达一个月的行政攻势遭遇重大挫败。

法院文件显示,法官认为国防部的行动'缺乏充分证据,且可能违反宪法程序正义'。

争端源于2月底,五角大楼首席数字与人工智能官办公室(CDAO)突然宣布Anthropic的Claude系列模型存在'潜在国家安全隐患',理由包括其'过度强调AI安全而非实用部署'。此举直接影响了多家联邦机构,如国土安全部和情报社区,它们已开始测试Claude在情报分析和决策辅助中的应用。

Anthropic的崛起与五角大楼的隐忧

Anthropic成立于2021年,由前OpenAI高管Dario Amodei和Daniela Amodei兄妹创立,以'负责任AI开发'为旗帜。其Claude模型在安全性、对齐性和多模态能力上领先,迅速成为OpenAI GPT系列的强劲对手。公司强调'宪法AI'框架,避免模型生成有害内容,并公开反对将AI武器化。

五角大楼的担忧并非空穴来风。随着美军加速AI整合,如Replicator计划投资10亿美元部署数千无人机,Anthropic的'安全主义'立场成为障碍。公司曾拒绝与军方签订高额合同,坚持不开发自主杀伤武器。这被部分国防鹰派视为'文化战'的一部分——民主党支持的硅谷精英阻挠特朗普时代遗留的军用AI议程。

行业背景中,AI供应链风险评估源于2022年拜登政府的《AI法案》,旨在防范中国影响力。但Anthropic作为纯美企,其被点名更多源于政治分歧。2025年大选后,共和党主导的国会推动'AI优先国防',Anthropic的捐款记录显示其倾向进步派,这加剧了摩擦。

文化战的AI战场

文章作者James O'Donnell在MIT Technology Review的《The Algorithm》周刊中指出,五角大楼的策略本质上是'文化战战术':通过行政标签绕过国会审查,快速孤立'不合作'公司。类似先例包括对华为的禁令,但Anthropic的美国本土身份让此举显得突兀。

禁令发布后,Anthropic股价飙升15%,投资者视其为'反脆弱'证明。公司回应称:'我们致力于服务公共利益,但不会牺牲安全原则。'与此同时,五角大楼发言人辩称,此为'标准风险评估',但内部文件泄露显示,评估过程仅耗时两周,远低于行业规范。

编者按:AI治理的深层裂痕

这一事件揭示了AI治理的多重困境。首先,政府对私企AI的控制权边界模糊。供应链风险标签本为防范外国威胁,但滥用于国内公司,可能寒蝉效应,吓退AI人才。其次,军用AI伦理辩论升级:支持者认为Anthropic的谨慎延缓了美军对中俄的AI竞赛;反对者警告,仓促部署或酿成'闪电战2.0'灾难。

从全球视角看,此事或刺激欧盟和中国加速自主AI。五角大楼的反噬在于:禁令不仅暂缓了行动,还引发公众对'政治审查AI'的质疑。未来,国会或需立法澄清风险评估标准,避免国防部沦为文化战场。

更广层面,Anthropic事件折射硅谷与华盛顿的张力。OpenAI已与军方合作开发Palantir-like工具,而Anthropic坚守底线,或许预示AI分化:一派拥军,一派求和。

潜在影响与展望

短期内,政府机构可继续使用Claude,但正式听证将于4月举行。若Anthropic胜诉,将树立先例,限制行政越权。长期看,此事推动AI透明化:公司需披露更多训练数据来源,政府须公开评估依据。

行业专家预测,2026年将是'AI监管元年'。随着Groq、xAI等新玩家涌入,五角大楼需平衡安全与创新,而非诉诸标签战。Anthropic的韧性证明,文化战在科技领域往往事与愿违。

本文约1050字,编译自MIT Technology Review,原文作者James O'Donnell,2026-03-30发布。