美司法部:Anthropic不配开发作战AI系统

美国司法部回应Anthropic的诉讼,指责该公司试图限制Claude AI模型在军方使用上,并称其不可信赖用于作战系统。政府强调,此举合法处罚Anthropic违反合同义务。此事件凸显AI企业与军方合作的紧张关系,Anthropic作为安全导向AI公司,曾公开承诺避免军事应用,但军方需求推动其卷入争议。未来,AI军民两用技术监管将成焦点。(128字)

在AI技术迅猛发展的当下,军用AI的应用已成为全球科技竞争的焦点。近日,美国司法部在回应Anthropic公司诉讼时,直言该公司“不值得信赖用于作战系统”,引发业界震动。这起事件源于Anthropic试图限制其Claude AI模型在军事领域的使用,政府则以合法处罚回击。

事件起因:Anthropic的军事限制与政府反制

Anthropic作为一家以AI安全为导向的公司,其Claude系列大语言模型在性能上可媲美OpenAI的GPT系列,却以“负责任AI”为卖点。该公司创始人曾公开表示,不会将技术用于武器开发。然而,随着美国军方对AI的渴求日益强烈,Anthropic与国防部的合作不可避免。

政府在法庭文件中表示:“Anthropic试图限制Claude AI模型在军方使用方式上,这是对合同的违法行为,我们依法对其进行处罚。”

据WIRED报道,2026年3月18日,司法部正式回应Anthropic的诉讼。Anthropic此前起诉政府,称处罚侵犯其商业自主权。但司法部反驳称,公司此举破坏了国家安全利益,尤其是在Claude模型可能用于情报分析、自主武器系统等领域时。

行业背景:AI军用化的全球竞赛

AI在军事领域的应用并非新鲜事。从无人机自主导航到网络战情报处理,AI正重塑现代战场。美国国防部通过DARPA(国防高级研究计划局)等机构,大力投资AI项目,如Maven项目已将Google AI用于目标识别,尽管引发员工抗议。

Anthropic的困境并非孤例。OpenAI曾与微软合作,提供AI给军方,但CEO Sam Altman强调“防御性”用途。相比之下,中国在AI军用上步伐更快,华为、百度等企业深度参与“军民融合”战略。2025年,美国国会通过《AI军事应用法案》,要求本土AI公司优先服务国防需求,这加剧了企业与政府的博弈。

本文由 赢政天下 独家编译 - 转载请注明来源。

Claude模型的核心优势在于其“宪法AI”框架,能通过人类价值观约束输出,避免有害内容。但军方认为,这种“安全阀”可能在高强度作战中失效,导致系统不可靠。司法部文件直指:“Anthropic的限制措施证明其不适合处理战时复杂场景。”

双方的法律论战

Anthropic的诉讼焦点在于合同自由。公司辩称,其与军方的协议仅限于非作战用途,如后勤优化和模拟训练。但政府律师反驳,Claude的通用性决定了其军民两用潜力,任何限制均为“单方面违约”。

法庭文件显示,处罚包括罚款数百万美元,并暂停Anthropic的部分联邦资金。这对依赖风险投资的公司打击巨大。Anthropic回应称,将继续推动“有益AI”,但未否认未来可能调整立场。

编者按:AI伦理与国家安全的权衡

此事件折射出AI行业深层矛盾。一方面,企业追求伦理底线,避免“AI军备竞赛”;另一方面,国家安全需求不容忽视。Anthropic的“安全优先”理念虽值得赞许,但在美国地缘政治压力下,可能难以持久。

展望未来,随着中美AI竞赛白热化,美国政府或将加强监管,推动更多公司如xAI、Meta加入军用行列。同时,国际社会需制定AI军用规范,避免技术失控。Anthropic案或成转折点,考验AI企业的底线与韧性。

本文约1050字,编译自WIRED,作者Paresh Dave,日期2026-03-18。