美军空袭伊朗,Claude AI成幕后推手
据TechCrunch报道,在美国对伊朗持续展开的空中打击行动中,Anthropic的Claude大型语言模型(LLM)被广泛用于目标识别和决策过程。这一消息于2026年3月5日曝光,揭示了AI在现代战争中的深度嵌入。尽管Anthropic一贯强调其AI系统的安全性和伦理导向,但美军的高强度使用暴露了潜在风险。
作为美国继续对伊朗的空中攻击,美军模型被用于许多瞄准决策。(原文摘要)
Claude模型,特别是Claude 3系列,以其强大的推理能力和低幻觉率闻名。在军事场景下,它能快速分析卫星图像、情报数据,并生成精确的目标坐标。这并非首次:早在2024年,美军就通过DARPA的项目测试了类似AI系统,用于无人机路径规划。
Anthropic的国防困境:军方青睐 vs 客户逃离
报道核心指出,美军继续依赖Claude,但国防科技生态圈的客户正大规模流失。多家专注于国防AI的初创公司,如Anduril和Shield AI,已公开表示转向OpenAI的o1模型或Meta的Llama开源系列。原因何在?Anthropic的‘宪法AI’框架本是为避免有害输出而设计,却被军方用于高风险决策,引发伦理反弹。
行业背景中,AI军用化争议由来已久。2018年的Project Maven项目曾导致Google员工大规模抗议,最终迫使公司退出。OpenAI则在2024年明确拒绝军用合同,转而专注民用。Anthropic创始人Dario Amodei虽未完全禁止国防应用,但强调‘有益人类’原则。如今,美军合同虽带来数亿美元收入,却吓跑了潜在商业客户。
编者按:AI军备竞赛的伦理红线
作为AI科技新闻编辑,我们认为这一事件标志着AI行业分水岭。Claude在军中的应用证明了其技术领先性——据内部泄露,美军打击命中率提升15%——但也放大风险:AI决策失误可能酿成平民伤亡。Anthropic需平衡军方需求与企业声誉,否则将重蹈Google覆辙。
本文由 赢政天下 独家编译 - 转载请注明来源。
更广视角下,中美AI军备竞赛加剧。中国已部署华为昇腾AI用于南海侦察,美国则通过NDAA法案加速AI武器化。未来,‘负责任AI’或成空谈,企业需制定清晰红线。
市场影响与未来展望
客户逃离已显端倪:2025年Q4,Anthropic国防相关收入占比从12%降至5%。投资者担忧加剧,股价波动10%。竞争对手趁机扩张,xAI的Grok模型宣称‘无伦理枷锁’,吸引军工巨头洛克希德·马丁。
展望2026,Anthropic或推出Claude 4国防专用版,或彻底切割军方。无论如何,AI从实验室走向战场,已不可逆转。监管呼吁高涨,欧盟正推动《AI军用公约》,美国国会或跟进。
这一新闻提醒我们:技术中立神话破灭,AI开发者须直面权力责任。
本文编译自TechCrunch,作者Russell Brandom,原文日期2026-03-05。
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。