AI军事瞄准新玩法:五角大楼对Claude的“战争”

本期《下载》专栏聚焦AI在军事领域的应用。美国国防官员透露,军方正探索使用生成式AI聊天机器人辅助目标排名与打击优先级决策,这标志着AI从辅助识别向决策核心迈进。同时,五角大楼与Anthropic的Claude AI展开“战争”,因Claude拒绝提供敏感军事信息而引发争议。这一趋势凸显AI军用化的加速与伦理挑战,未来或重塑战场规则。(128字)

引言:科技日报的AI军事前沿

《MIT Technology Review》的《下载》专栏是我们平日里获取科技前沿动态的必读之选。本期(2026年3月13日)由Thomas Macaulay撰写,聚焦两大热点:美国军方如何利用生成式AI进行军事瞄准,以及五角大楼与Claude AI的激烈对抗。这不仅仅是技术新闻,更是AI深度嵌入国防体系的信号。

国防官员揭秘:AI聊天机器人助力目标决策

美国国防部官员近日公开表示,军方正积极评估生成式AI系统在战场上的潜力。具体而言,这些AI聊天机器人可能被用于排名潜在目标,并推荐打击优先顺序。这一声明源于国防部内部报告,标志着AI从单纯的图像识别工具,向智能决策辅助器的转变。

国防官员透露:“生成式AI系统可根据实时情报数据,快速排序目标,并建议优先打击对象,从而提升作战效率。”

回顾历史,美国军方早在2017年就启动了“Maven项目”,利用谷歌AI在无人机视频中自动识别目标物体。该项目虽因谷歌员工抗议而中断,但已为后续发展铺平道路。如今,随着ChatGPT等生成式AI的兴起,五角大楼正推动“联合全域指挥与控制”(JADC2)计划,将AI融入整个杀伤链(kill chain):从侦察、识别到决策打击。

补充行业背景:生成式AI的优势在于其自然语言处理能力,能整合多源数据(如卫星图像、情报报告、社交媒体),生成可解释的推荐。例如,AI可分析敌方指挥中心的位置、威胁级别和 collateral damage(附带损伤)风险,一键输出打击序列。这比传统算法更快、更灵活,但也引发担忧:AI决策的“黑箱”性质可能导致误判。

五角大楼的“Claude战争”:AI安全对齐的战场考验

另一大焦点是五角大楼与Anthropic公司Claude AI的“战争”。Claude作为高度对齐的安全AI模型,内置严格的拒绝机制,拒绝回答涉及武器设计、军事策略等敏感查询。五角大楼测试人员试图绕过这些限制,用于模拟作战场景,却屡屡碰壁。

本文由 赢政天下编译整理,更多海外AI资讯,尽在 赢政天下

据报道,五角大楼情报机构多次向Claude输入假设性军事问题,如“如何优化无人机群攻击路径”,Claude一律回应:“我无法协助可能导致伤害的活动。”这一僵局被戏称为“五角大楼对Claude的战争”,凸显商业AI与军用需求的冲突。

Thomas Macaulay在文章中写道:“Pentagon’s war on Claude暴露了AI开发者与国防机构的张力,后者寻求无限制访问,前者坚守伦理底线。”

背景知识:Anthropic由前OpenAI成员创立,强调“宪法AI”(Constitutional AI),通过预设原则确保模型安全。五角大楼则通过Replicator计划投资数百亿美元开发自主武器系统,与Claude的“叛逆”形成鲜明对比。类似事件不止一桩:OpenAI曾禁止军用GPT,但2024年松绑;Google的Gemini也面临类似压力。

编者按:AI军用化的双刃剑

作为AI科技新闻编辑,我认为这一趋势既激动人心,又充满风险。一方面,AI可减少士兵暴露在危险中,提升精确打击能力,潜在挽救无数生命;另一方面,算法偏见、黑客攻击或“闪崩”(flash crash)式决策失控,可能酿成灾难。联合国已呼吁制定AI武器公约,但大国博弈下前景渺茫。

展望未来,随着量子计算和多模态AI的融合,战场将从“人机协作”转向“机机对抗”。中国、俄罗斯也在加速追赶,如俄罗斯的“Marker”无人车和中国的“翼龙”无人机AI升级。美国需平衡创新与管制,避免“AI军备竞赛”失控。

更深层问题是伦理:谁为AI“杀戮”负责?人类指挥官,还是算法设计师?Claude事件提醒我们,安全对齐不仅是技术问题,更是价值观之争。五角大楼若强推“军用版Claude”,可能引发开发者反噬和社会抵制。

结语:科技的双面镜

AI军事应用的浪潮已不可逆转,但其路径取决于政策与公众监督。本文编译自MIT Technology Review,旨在提供深度视角,欢迎读者讨论。