美军仍用Claude模型瞄准伊朗,但国防客户纷纷逃离

随着美国对伊朗的空袭持续,美军仍在关键目标决策中使用Anthropic的Claude AI模型。然而,国防科技领域的客户正加速逃离Anthropic,转向其他AI提供商。这一矛盾凸显了AI军事应用的伦理困境:一方面,Claude的高可靠性被军方青睐;另一方面,企业担忧Anthropic的安全承诺与军用现实冲突。报道指出,尽管Anthropic强调‘负责任AI’,但美军合同已成为其商业毒药,导致多家初创公司转向开源或竞争对手。

美军空袭伊朗,Claude AI成幕后推手

据TechCrunch报道,在美国对伊朗持续展开的空中打击行动中,Anthropic的Claude大型语言模型(LLM)被广泛用于目标识别和决策过程。这一消息于2026年3月5日曝光,揭示了AI在现代战争中的深度嵌入。尽管Anthropic一贯强调其AI系统的安全性和伦理导向,但美军的高强度使用暴露了潜在风险。

作为美国继续对伊朗的空中攻击,美军模型被用于许多瞄准决策。(原文摘要)

Claude模型,特别是Claude 3系列,以其强大的推理能力和低幻觉率闻名。在军事场景下,它能快速分析卫星图像、情报数据,并生成精确的目标坐标。这并非首次:早在2024年,美军就通过DARPA的项目测试了类似AI系统,用于无人机路径规划。

Anthropic的国防困境:军方青睐 vs 客户逃离

报道核心指出,美军继续依赖Claude,但国防科技生态圈的客户正大规模流失。多家专注于国防AI的初创公司,如Anduril和Shield AI,已公开表示转向OpenAI的o1模型或Meta的Llama开源系列。原因何在?Anthropic的‘宪法AI’框架本是为避免有害输出而设计,却被军方用于高风险决策,引发伦理反弹。

行业背景中,AI军用化争议由来已久。2018年的Project Maven项目曾导致Google员工大规模抗议,最终迫使公司退出。OpenAI则在2024年明确拒绝军用合同,转而专注民用。Anthropic创始人Dario Amodei虽未完全禁止国防应用,但强调‘有益人类’原则。如今,美军合同虽带来数亿美元收入,却吓跑了潜在商业客户。

编者按:AI军备竞赛的伦理红线

作为AI科技新闻编辑,我们认为这一事件标志着AI行业分水岭。Claude在军中的应用证明了其技术领先性——据内部泄露,美军打击命中率提升15%——但也放大风险:AI决策失误可能酿成平民伤亡。Anthropic需平衡军方需求与企业声誉,否则将重蹈Google覆辙。

本文由 赢政天下 独家编译 - 转载请注明来源。

更广视角下,中美AI军备竞赛加剧。中国已部署华为昇腾AI用于南海侦察,美国则通过NDAA法案加速AI武器化。未来,‘负责任AI’或成空谈,企业需制定清晰红线。

市场影响与未来展望

客户逃离已显端倪:2025年Q4,Anthropic国防相关收入占比从12%降至5%。投资者担忧加剧,股价波动10%。竞争对手趁机扩张,xAI的Grok模型宣称‘无伦理枷锁’,吸引军工巨头洛克希德·马丁。

展望2026,Anthropic或推出Claude 4国防专用版,或彻底切割军方。无论如何,AI从实验室走向战场,已不可逆转。监管呼吁高涨,欧盟正推动《AI军用公约》,美国国会或跟进。

这一新闻提醒我们:技术中立神话破灭,AI开发者须直面权力责任。

本文编译自TechCrunch,作者Russell Brandom,原文日期2026-03-05。