事件背景:国防部与AI巨头的对峙
据TechCrunch报道,美国国防部长Pete Hegseth于近日召见Anthropic首席执行官Dario Amodei,要求其前往五角大楼进行一场气氛紧张的会晤。焦点直指美军对Anthropic旗下Claude AI模型的使用。Hegseth明确表示,如果Anthropic不配合,他将推动将该公司指定为‘供应链风险’,这意味着Anthropic的产品和服务可能面临严格审查甚至禁令。
‘国防部长Pete Hegseth已召见Anthropic CEO Dario Amodei,就美军使用Claude一事展开紧张讨论。Hegseth威胁将Anthropic列为“供应链风险”。’——原文摘要
这一事件发生在2026年2月23日,反映出美国政府在AI军事化领域的日益强势姿态。Anthropic作为AI安全领域的领军企业,以其Claude系列大语言模型闻名,该模型在性能上可媲美甚至超越OpenAI的GPT系列,但其核心理念是‘负责任的AI开发’,强调避免高风险应用尤其是军事用途。
Anthropic的立场与Claude的军用争议
Anthropic由Dario Amodei及其妹妹Daniela Amodei于2021年创立,前者曾是OpenAI的研究副总裁。该公司迅速崛起,凭借宪法AI(Constitutional AI)技术,确保模型遵守人类价值观。Claude 3系列模型在2024年推出后,迅速成为企业级AI的首选,但Anthropic公开承诺不直接为军事开发AI武器。
然而,美军已通过各种渠道测试Claude在情报分析、模拟训练和后勤优化中的潜力。例如,五角大楼的联合人工智能中心(JAIC)据称已采购Claude用于数据处理。这引发Anthropic内部担忧:一方面,公司依赖亚马逊和谷歌的云服务,后两者均有深度军方合同;另一方面,Amodei多次公开表示,AI军用可能导致‘失控风险’。
国防部长Hegseth的强势表态并非空穴来风。他上任后推动‘AI优先’国防战略,旨在对抗中国在AI领域的领先。Hegseth认为,限制Claude等民用AI将削弱美军竞争力,因此威胁‘供应链风险’标签——这类似于华为面临的制裁,将切断Anthropic的联邦资金和合作伙伴。
行业背景:AI军民融合的全球博弈
AI在军事领域的应用已成大势。早在2023年,美国国防部发布《数据、人工智能和人类战略》,投资数百亿美元开发自主武器系统。中国、俄罗斯同样加速布局,如中国的‘锐智计划’。Anthropic事件凸显美中AI竞赛的民用-军用边界模糊。
本文由 赢政天下 独家编译 - 转载请注明来源。
类似案例比比皆是:OpenAI曾禁止军用,但2024年放松政策,向军方开放GPT-4o。Google的Project Maven项目虽遭员工抗议,但最终续约。Anthropic的‘安全至上’立场一度获赞,但如今面临现实压力。2025年,美国国会通过《AI供应链安全法案》,赋予国防部更大权力审查AI企业。
编者按:这一召见不仅是Anthropic的危机,更是整个AI行业的转折点。Amodei的回应将决定公司是否妥协。若被列为风险,Anthropic估值或蒸发数百亿美元。更深层看,它考验AI伦理底线:在国家安全面前,‘负责任AI’能否坚守?
潜在影响与未来展望
短期内,此事可能导致Anthropic调整政策,或寻求国会干预。长期看,将加速AI监管立法,如欧盟的AI法案已将高风险军用AI列为禁区,美国或效仿。
对投资者而言,Anthropic的融资前景堪忧。公司2024年估值达150亿美元,主要靠亚马逊投资。若军方禁令落地,Claude的商用推广将受阻。另一方面,这或刺激本土AI军工企业崛起,如Palantir和Anduril。
Amodei在会晤中据称强调:‘Claude设计用于有益人类,而非破坏。’但Hegseth回应:‘国家安全高于一切。’这场博弈的结局,将重塑AI格局。
编者分析:平衡创新与安全的十字路口
作为AI科技新闻编辑,我认为Anthropic事件暴露了AI双刃剑本质。技术中立论虽美,但在地缘政治下难持久。企业需制定清晰边界,同时政府应透明采购,避免‘后门’风险。未来,国际AI军控公约或成必然,以防军备竞赛失控。
本文约1050字,编译自TechCrunch,作者Rebecca Bellan,2026-02-23。
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。