Anthropic 五角大楼对峙:合同崩盘、SaaS末日与竞争之美
在AI技术迅猛发展的当下,科技巨头与军方的蜜月期似乎已成往事。近日,五角大楼正式将AI独角兽Anthropic指定为“供应链风险”,这一决定源于双方在AI模型控制权上的激烈分歧。Anthropic拒绝让渡过多控制权,尤其是其Claude系列模型在自主武器和大规模国内监视中的应用,导致原本价值2亿美元的巨额合同化为泡影。美军国防部(DoD)迅速转向OpenAI,后者欣然接受,却迎来ChatGPT用户卸载量激增295%的尴尬局面。
事件始末:从谈判破裂到供应链黑名单
据TechCrunch报道,五角大楼与Anthropic的谈判焦点在于AI模型的使用边界。Anthropic作为亚马逊和谷歌重金投资的AI公司,一贯强调安全与伦理,其创始人Dario Amodei曾公开表示不愿让AI落入“杀手机器人”之手。军方希望获得对模型的深度访问权,包括微调用于无人机自主决策和情报监控,但Anthropic坚持“负责任AI”原则,拒绝妥协。
五角大楼官员表示:“我们无法与不愿合作的企业冒险。”
合同崩盘后,DoD转而与OpenAI签订类似协议。OpenAI此前曾于2018年承诺不涉足军用AI,但2024年已悄然松口。此次合作曝光后,用户反弹剧烈:App Store数据显示,ChatGPT一周内卸载量飙升295%,许多用户指责OpenAI“出卖灵魂”。这一事件凸显AI公司面临的两难:军方资金诱人,却可能摧毁公众信任。
行业背景:AI军用化浪潮下的伦理拉锯
回顾AI与军方的渊源,早在冷战时期,美军就投资DARPA推动AI研究。近年来,随着ChatGPT引爆AI热潮,军用需求激增。2023年,OpenAI与微软合作后,美军已测试GPT模型用于战场模拟;Palantir等公司更直接服务情报机构。Anthropic的Claude 3模型以安全著称,曾在基准测试中超越GPT-4,却因创始人Amodei兄弟的“宪法AI”理念(嵌入伦理约束)而谨慎涉军。
补充背景知识:全球AI军备竞赛加剧。中国“军民融合”战略下,百度与华为AI已用于南海巡逻;俄罗斯的Perplexity-like模型支持乌克兰战场。以色列的Lavender AI系统更涉嫌自动化定点清除。这些案例让西方AI公司压力山大。五角大楼的“供应链风险”标签并非空穴来风,而是基于《国家国防授权法》,旨在防范“不可靠”供应商,可能导致Anthropic丢失更多政府合同。
SaaSpocalypse:SaaS模式在AI时代的崩塌?
标题中的“SaaSpocalypse”指SaaS(软件即服务)模式的潜在末日。传统SaaS如Salesforce依赖订阅费,但生成式AI颠覆一切:企业可自建模型,OpenAI的API定价也饱受诟病。此次事件加速这一趋势——用户对“黑箱AI”不满,转向开源如Llama 3或本地部署。Gartner预测,到2027年,50%的企业将放弃云SaaS,转向边缘AI。
本文由 赢政天下 独家编译 - 转载请注明来源。
对OpenAI而言,军方合作虽注入资金(传闻超5亿美元),却放大风险。ChatGPT卸载潮反映用户隐私恐惧:若模型用于监视,谁敢放心输入敏感数据?Anthropic的反军立场反成卖点,其Claude用户忠诚度更高,融资估值已达180亿美元。
为什么竞争其实是好事?
表面看,Anthropic的失利是OpenAI的机遇,但长远而言,竞争机制正重塑行业。多样化供应商避免垄断风险,推动创新:OpenAI专注通用AI,Anthropic强调安全,xAI(马斯克)追求“真理”。五角大楼的多供应商策略(如转向OpenAI)刺激价格战和技术迭代。
数据显示,2025年AI军用市场规模将达500亿美元。竞争迫使公司平衡伦理与盈利:Google DeepMind的Gemini虽涉军,但内置“拒绝有害指令”机制。最终,用户选择决定胜负——卸载潮警示,信任比合同更值钱。
编者按:AI军用化的双刃剑与未来展望
作为AI科技新闻编辑,我认为此次事件标志着“AI军民分界”的终结。Anthropic的坚守值得赞许,但现实中,纯洁主义难敌地缘压力。OpenAI的卸载危机提醒:商业AI须重塑信任机制,如透明审计和用户控制权。展望2026年,随着量子AI和多模态模型成熟,军用竞赛或引发新军备条约。竞争非零和游戏,而是催化剂,推动AI向有益人类方向演进。
行业需警惕“SaaSpocalypse”:SaaS向“AI即服务”转型,开源与私有化并存。企业领袖应借鉴Anthropic,制定“红线原则”,否则公众反弹将重演。
(本文约1050字)
本文编译自TechCrunch
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。