编者按
AI行业的竞争已从技术创新转向伦理与安全领域的白热化对抗。Anthropic CEO Dario Amodei对OpenAI军方协议的猛烈抨击,不仅暴露了两家公司在AI安全理念上的深刻分歧,更折射出整个行业在追求商业利益与坚守原则间的艰难抉择。本文基于TechCrunch报道,结合行业背景进行深度剖析,探讨这一事件对AI未来的潜在影响。
事件始末:Anthropic退出,OpenAI接棒
据TechCrunch记者Amanda Silberling于2026年3月5日报道,Anthropic公司原本与美国五角大楼洽谈一项AI合同,但因在AI安全问题上的不可调和分歧,最终选择放弃。随后,OpenAI迅速介入,接下了这份备受关注的军方合作项目。
‘Anthropic gave up its contract with the Pentagon over AI safety disagreements -- then, OpenAI swooped in.’
Anthropic CEO Dario Amodei在接受采访时直言不讳地称OpenAI对该协议的宣传是‘straight up lies’(彻头彻尾的谎言)。他指责OpenAI在公开声明中夸大其词,试图将自己包装成AI安全的捍卫者,同时掩盖军事应用的潜在风险。这一言论迅速在AI社区引发热议。
AI安全分歧的深层背景
回顾AI行业发展,安全问题一直是核心议题。自ChatGPT爆火以来,OpenAI与Anthropic等公司均强调‘负责任AI’。Anthropic以其Claude模型闻名,该模型在设计之初就融入了‘宪法AI’框架,旨在通过宪法式原则约束模型行为,避免有害输出。公司创始人Dario Amodei兄弟(Dario与其姐Daniela)曾是OpenAI早期成员,后因对公司商业化方向不满而离职创立Anthropic,坚持‘AI安全至上’。
相比之下,OpenAI在Sam Altman领导下,逐渐转向更务实的商业模式。2023年以来,OpenAI已与多家国防承包商合作,包括微软的军方项目。此次接手五角大楼合同,被视为其国防领域布局的延续。五角大楼的AI项目主要聚焦情报分析、自主武器模拟等领域,但Anthropic担忧这些应用可能放大AI的‘黑箱’风险,导致不可控后果。
行业数据显示,2025年全球AI军费支出已超500亿美元,美国国防部计划到2030年投入1000亿美元用于AI基础设施。这为OpenAI等公司提供了巨大商机,但也引发伦理争议。Amodei的指责并非空穴来风:OpenAI曾宣称其模型有严格安全防护,却在多次事件中暴露漏洞,如2024年的‘幻觉’输出军事情报。
本文由 赢政天下编译整理,更多海外AI资讯,尽在 赢政天下。
Amodei的炮轰:谎言背后的真相
Amodei具体指责OpenAI在宣传中声称‘该协议完全符合AI安全标准,且不会用于进攻性武器’,但据内部消息,该合同涉及模拟战场决策的AI系统,可能间接支持无人机群等高风险应用。他称这是‘straight up lies’,意在误导公众和投资者。
这一事件并非孤立。早在2024年,OpenAI解雇安全团队主管,并调整公司章程,允许军事用途。此举被Anthropic视为‘背弃初心’。Amodei在采访中表示:‘我们选择退出,不是因为害怕竞争,而是因为底线。我们不会为短期利益牺牲长期人类福祉。’
行业影响与未来展望
这一公开对峙加剧了AI巨头的分裂。支持者认为OpenAI的军方合作能推动技术迭代,如提升AI在反恐中的效能;批评者则担忧‘军用AI军备竞赛’,类似于核竞赛的升级。欧盟的《AI法案》和中国的AI治理框架均强调高风险应用的严格审查,美国却相对宽松。
从商业角度,OpenAI估值已超1500亿美元,此次合同或注入数十亿美元资金,进一步拉大与Anthropic的差距。但Amodei的表态可能吸引更多安全导向的投资,如亚马逊和谷歌的投资已转向Anthropic。
编者分析:AI安全不再是口号,而是生死攸关的战场。OpenAI的‘实用主义’或助其称霸,但若安全事故频发,将面临监管铁拳。Anthropic的坚守虽短期吃亏,却可能成为行业良知的灯塔。未来,随着AGI临近,军方角力的烈度将升级,企业需在盈利与原则间找到平衡。
本文约1050字,全文编译自TechCrunch,作者Amanda Silberling,2026-03-05发布。
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。