特朗普政府剑指Anthropic:AI安全 vs 国家安全
据Ars Technica报道,美国前总统特朗普于2026年3月1日推动一项行政令,旨在禁止AI初创公司Anthropic及其Claude系列大语言模型参与任何美国联邦政府项目。这一决定源于国防部(DoD)对Anthropic的持续施压,后者拒绝放松其AI模型在军事应用上的严格限制。
国防部要求Anthropic放弃对AI军事使用的限制,但公司坚持其安全原则。
Anthropic成立于2021年,由前OpenAI高管Dario Amodei创立,以开发‘负责任的AI’闻名。其Claude模型在性能上媲美GPT-4,却内置多层安全机制,明确禁止用于武器开发或情报监控等高风险场景。这与OpenAI和Google等竞争对手形成鲜明对比,后者已与军方签订多项合同,如OpenAI的GPT-4o参与国防项目。
事件前因:国防部的‘橄榄枝’与拒绝
据知情人士透露,国防部早在2025年底就开始接触Anthropic,提出巨额采购意向,包括为无人机自主决策和网络战模拟提供AI支持。国防部希望Anthropic修改服务条款,允许Claude在‘受控军事环境’中使用。但Anthropic董事会一致否决,理由是这将违背公司宪章中‘有益AI’的核心承诺。
这一拒绝激怒了军方高层。国防部副部长凯瑟琳·希克斯公开表示:‘AI是未来战场的关键,我们不能让企业道德绑架国家安全。’特朗普团队迅速介入,利用其对联邦采购的控制权,发布禁令草案。该草案若通过,将禁止Anthropic获得任何政府资金、合同或数据访问权限,影响范围涵盖CIA、NSA等情报机构。
行业背景:AI军民两用技术的双刃剑
AI军事化争议由来已久。二战后,曼哈顿计划开启了军民科技融合先河,而AI时代则更趋复杂。2023年,美国国防部推出‘Replicator’计划,投资数十亿美元开发自主武器系统。多家AI公司卷入其中:Palantir提供数据分析,Anduril开发AI无人机。
Anthropic的立场源于‘AI安全主义’浪潮。2024年,国际AI安全峰会通过《布里斯班宣言》,呼吁限制高风险AI军事部署。Anthropic投资超过10亿美元用于‘宪法AI’研究,确保模型拒绝有害指令。这使其在企业市场大获成功,用户包括亚马逊和Slack,但也招致政府不满。
本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com。
相比之下,中国和俄罗斯在AI军备竞赛中毫不手软。华为的Pangu模型已集成到解放军指挥系统中,美国担心落后将威胁全球霸权。
潜在影响:AI生态重塑在即
禁令若实施,将对Anthropic造成重击。公司估值已超150亿美元,主要依赖云服务巨头投资。但失去政府市场,可能导致融资困难,并引发‘寒蝉效应’——其他安全导向AI公司如xAI或Mistral或被迫妥协。
另一方面,此举可能加速美国AI军工一体化。特朗普政府计划设立‘AI国防基金’,优先采购‘爱国AI’供应商。OpenAI CEO Sam Altman已表态支持,称‘国家安全高于一切’。
编者按:平衡创新与安全的十字路口
特朗普的禁令看似强硬,实则暴露AI治理困境。一方面,Anthropic的谨慎值得赞许,避免了‘AI军备竞赛’失控风险;另一方面,政府需求合情合理——在中美博弈中,技术中立已成奢望。我们呼吁国会介入,建立独立AI伦理审查机制,确保军用AI透明可控,而非一刀切禁令。未来,AI将决定大国命运,如何在安全与实力间权衡,将考验美国智慧。
(字数约1050)
本文编译自Ars Technica
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。