特朗普推动禁止Anthropic与美国政府合作

美国国防部施压AI公司Anthropic放弃其AI模型在军事领域的使用限制,此举引发争议。特朗普政府迅速行动,拟全面禁止Anthropic参与联邦政府项目。这一事件凸显AI安全与国家安全间的紧张关系,可能重塑AI军民两用技术的发展格局。Anthropic强调其‘负责任AI’原则,但面临政府采购壁垒。

特朗普政府剑指Anthropic:AI安全 vs 国家安全

据Ars Technica报道,美国前总统特朗普于2026年3月1日推动一项行政令,旨在禁止AI初创公司Anthropic及其Claude系列大语言模型参与任何美国联邦政府项目。这一决定源于国防部(DoD)对Anthropic的持续施压,后者拒绝放松其AI模型在军事应用上的严格限制。

国防部要求Anthropic放弃对AI军事使用的限制,但公司坚持其安全原则。

Anthropic成立于2021年,由前OpenAI高管Dario Amodei创立,以开发‘负责任的AI’闻名。其Claude模型在性能上媲美GPT-4,却内置多层安全机制,明确禁止用于武器开发或情报监控等高风险场景。这与OpenAI和Google等竞争对手形成鲜明对比,后者已与军方签订多项合同,如OpenAI的GPT-4o参与国防项目。

事件前因:国防部的‘橄榄枝’与拒绝

据知情人士透露,国防部早在2025年底就开始接触Anthropic,提出巨额采购意向,包括为无人机自主决策和网络战模拟提供AI支持。国防部希望Anthropic修改服务条款,允许Claude在‘受控军事环境’中使用。但Anthropic董事会一致否决,理由是这将违背公司宪章中‘有益AI’的核心承诺。

这一拒绝激怒了军方高层。国防部副部长凯瑟琳·希克斯公开表示:‘AI是未来战场的关键,我们不能让企业道德绑架国家安全。’特朗普团队迅速介入,利用其对联邦采购的控制权,发布禁令草案。该草案若通过,将禁止Anthropic获得任何政府资金、合同或数据访问权限,影响范围涵盖CIA、NSA等情报机构。

行业背景:AI军民两用技术的双刃剑

AI军事化争议由来已久。二战后,曼哈顿计划开启了军民科技融合先河,而AI时代则更趋复杂。2023年,美国国防部推出‘Replicator’计划,投资数十亿美元开发自主武器系统。多家AI公司卷入其中:Palantir提供数据分析,Anduril开发AI无人机。

Anthropic的立场源于‘AI安全主义’浪潮。2024年,国际AI安全峰会通过《布里斯班宣言》,呼吁限制高风险AI军事部署。Anthropic投资超过10亿美元用于‘宪法AI’研究,确保模型拒绝有害指令。这使其在企业市场大获成功,用户包括亚马逊和Slack,但也招致政府不满。

本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com

相比之下,中国和俄罗斯在AI军备竞赛中毫不手软。华为的Pangu模型已集成到解放军指挥系统中,美国担心落后将威胁全球霸权。

潜在影响:AI生态重塑在即

禁令若实施,将对Anthropic造成重击。公司估值已超150亿美元,主要依赖云服务巨头投资。但失去政府市场,可能导致融资困难,并引发‘寒蝉效应’——其他安全导向AI公司如xAI或Mistral或被迫妥协。

另一方面,此举可能加速美国AI军工一体化。特朗普政府计划设立‘AI国防基金’,优先采购‘爱国AI’供应商。OpenAI CEO Sam Altman已表态支持,称‘国家安全高于一切’。

编者按:平衡创新与安全的十字路口

特朗普的禁令看似强硬,实则暴露AI治理困境。一方面,Anthropic的谨慎值得赞许,避免了‘AI军备竞赛’失控风险;另一方面,政府需求合情合理——在中美博弈中,技术中立已成奢望。我们呼吁国会介入,建立独立AI伦理审查机制,确保军用AI透明可控,而非一刀切禁令。未来,AI将决定大国命运,如何在安全与实力间权衡,将考验美国智慧。

(字数约1050)

本文编译自Ars Technica