事件背景:法庭听证会上的激烈交锋
2026年3月24日,周二,美国一地区法院的听证会上,五角大楼(美国国防部)的供应链风险指控成为焦点。法官直言国防部的行为是‘试图瘫痪’AI公司Anthropic,这番言论如同一记重锤,敲醒了科技界对政府监管的警觉。Anthropic作为Claude系列大语言模型的开发者,其创新成果正处于AI竞赛的最前沿,此次被贴上‘供应链风险’标签,不仅质疑了其商业诚信,更暴露了国家安全与技术创新间的微妙平衡。
‘国防部的动机令人担忧,这似乎是试图瘫痪Anthropic的举动。’——地区法院法官在听证会上表示。
据WIRED报道,此案源于国防部将Anthropic列入潜在供应链风险名单,禁止联邦机构与其进行业务往来。这并非孤立事件,而是美国政府近年来加强AI供应链审查的一部分举措。
Anthropic:AI安全领域的先锋
Anthropic成立于2021年,由前OpenAI高管Dario Amodei及其团队创立。公司以‘负责任AI’为使命,开发了Claude系列模型,这些模型在安全性、对齐性和长上下文处理上表现出色。Claude 3系列已超越GPT-4在多项基准测试中,广泛应用于企业级应用,如代码生成、数据分析和客户服务。
公司获得亚马逊和谷歌巨额投资,总融资超过80亿美元,估值飙升至数百亿美元。尽管Anthropic强调其模型的‘宪法AI’框架——通过内置伦理原则避免有害输出,但国防部仍以‘潜在外国影响风险’为由,将其列为关注对象。业内分析认为,这可能源于Anthropic的部分早期投资者或人才流动涉及国际背景,尽管公司总部位于美国旧金山,并严格遵守本土法规。
国防部的供应链风险机制
美国国防部维护着一个‘外国供应链风险’名单(Section 889),旨在防范华为、中兴等实体带来的间谍和后门威胁。近年来,随着AI成为国家安全核心,该名单扩展至软件和服务提供商。2025年,国防部已将多家AI初创公司纳入审查,包括那些与中东或亚洲资本有瓜葛的企业。
对Anthropic的指控具体指向其供应链中的第三方组件可能存在漏洞,或员工背景审查不严。但Anthropic回应称,其已通过多项联邦安全认证,并积极与政府合作开发军用AI工具。此前,Anthropic曾与美国空军签订合同,提供Claude模型用于情报分析,证明其可靠性。
法官质疑:动机与程序正义
听证会上,法官重点质疑国防部的决策过程:缺乏公开证据、未给予Anthropic充分申辩机会,以及名单更新的随意性。‘这不仅仅是风险评估,而是带有惩罚性的行政行为,’法官指出。Anthropic的律师团队提交了内部审计报告,证明其供应链100%本土化,且无外国政府干预迹象。
这一表态并非首次。2025年,类似案件中,法院曾推翻国防部对另一AI公司的禁令,理由是‘过度泛化风险定义,侵犯商业自由’。本次听证或将成为里程碑,推动国会修订相关法规。
行业影响:AI创新的隐忧
事件引发AI行业震动。OpenAI、Google DeepMind等竞争对手密切关注,若Anthropic败诉,将波及整个生态。供应链风险标签可能导致Anthropic丢失政府合同,融资难度加大,甚至影响Claude模型的全球部署。
更深层担忧在于‘寒蝉效应’:初创公司为避险,可能减少国际合作,转向封闭开发,削弱美国AI的全球领先地位。中国AI企业如百度ERNIE和阿里Qwen正加速追赶,若本土创新受阻,美国将面临战略劣势。同时,这凸显中美科技脱钩的复杂性——国防部旨在防范外国风险,却可能自缚手脚。
专家观点分歧:国家安全派认为AI供应链审查势在必行,以防‘特洛伊木马’式攻击;创新派则警告,过度监管将重蹈芯片短缺覆辙。Gartner预测,到2028年,30%的AI企业将因政府审查而调整业务模式。
编者按:平衡创新与安全的十字路口
作为AI科技新闻编辑,我们认为此次事件折射出美国AI治理的困境。一方面,国家安全不可忽视,尤其在生成式AI可能被用于网络战或虚假信息传播的时代;另一方面,Anthropic的Claude代表了‘安全优先’的典范,其被‘瘫痪’将打击整个行业的士气。
建议政府建立透明审查机制:引入第三方审计、定期复审,并鼓励公私合作。最终,AI不应成为地缘政治的牺牲品,而应服务于人类福祉。未来几个月,法院最终裁决值得期待。
(本文约1050字)
本文编译自WIRED,作者Paresh Dave,原文日期2026-03-25。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接