国防官员揭秘:AI聊天机器人如何辅助目标打击决策

据美国国防部知情官员透露,美军可能利用生成式AI系统对目标列表进行排序,并推荐优先打击顺序,这些建议将由人类审核后执行。这一披露正值五角大楼因一起打击事件面临审查之际。该应用凸显AI在军事决策中的潜力,同时引发伦理与准确性担忧。随着Replicator计划推进,AI正加速融入美军作战体系,但人类始终把关以确保责任。

引言:AI聊天机器人走进战场决策

在未来战争中,AI聊天机器人可能不再只是闲聊工具,而是战场上的关键助手。美国国防部一位知情官员近日向《MIT Technology Review》透露,美军正探索使用生成式AI系统,对目标列表进行排序并推荐优先打击顺序。这些AI建议将由人类操作员严格审核,以确保最终决策的准确性和合法性。这一消息的披露,正值五角大楼因一起无人机打击事件面临国会和公众审查之际,引发广泛讨论。

美国国防部官员表示:“美军可能使用生成式AI系统对目标列表排序,并推荐优先打击顺序——这些将由人类审核。”(摘自MIT Technology Review)

军事AI应用的背景

AI在军事领域的应用并非新鲜事。早在2023年,美军就启动了'Replicator'计划,计划在18个月内部署数千架AI驱动的自主无人机,用于对抗中国在印太地区的威胁。该计划的总投资高达10亿美元,旨在通过低成本、可大量生产的无人系统,实现战场饱和攻击。生成式AI,如ChatGPT背后的技术,正被视为加速这一进程的关键。

传统目标情报分析依赖情报分析师手动处理海量数据,包括卫星图像、信号情报和社会媒体信息。这过程耗时长、易出错,尤其在高强度冲突中。生成式AI的出现改变了这一局面。它能快速处理TB级数据,识别模式、评估威胁优先级,并生成自然语言解释。例如,输入一份包含数百个潜在目标的列表,AI可输出排序结果,如“目标A威胁最高,应优先打击,因为其指挥中心活跃迹象明显”。

AI聊天机器人的具体作用

据官员描述,这种AI系统类似于商用聊天机器人,但经过军事级微调。操作流程大致如下:情报部门上传目标数据(如坐标、类型、实时动态),AI生成排序列表和推荐理由。人类审核员则验证AI输出,排除错误,并下达最终打击指令。这类似于“人机协作”模式,确保AI仅作为辅助工具。

国防部强调,AI不会直接控制武器发射,而是停留在“推荐”层面。这与国际AI军控讨论一致,如联合国呼吁禁止“致命自主武器系统”(LAWS)。然而,官员的透露显示,美军正悄然推进AI在“杀伤链”(从侦察到打击的全链条)中的深度整合。

本文由 赢政天下编译整理,更多海外AI资讯,尽在 赢政天下

优势与潜在风险

使用AI的优势显而易见。首先是速度:在乌克兰冲突中,俄乌双方已用AI辅助火炮瞄准,反应时间从小时缩短至分钟。其次是规模化:AI可同时处理多个战场的目标洪流,缓解人力短缺。最后是客观性:AI基于数据算法,减少人为偏见。

但风险同样严峻。生成式AI知名问题“幻觉”(hallucination)可能导致错误推荐,如将平民目标误判为军事设施。2024年,一起以色列AI辅助加沙打击事件中,就曝出类似平民伤亡争议。此外,数据偏见若源自训练集,可能放大种族或地域歧视。伦理上,AI参与杀伤决策模糊了“人类责任”界限,引发“责任扩散”担忧。

编者按:AI军事化加速的双刃剑

作为AI科技新闻编辑,我认为这一披露标志着生成式AI从民用到军用的“最后一公里”障碍已被突破。Replicator计划的推进,不仅是技术竞赛,更是地缘战略博弈。中国和俄罗斯也在加速AI军用化,如中俄联合AI无人机演习。但这也敲响警钟:缺乏全球AI军控框架,风险将指数级放大。建议美军公开更多透明度,推动国际公约,以AI赋能而非失控。

展望未来,随着多模态AI(如GPT-5级别模型)成熟,目标决策将更智能化。但人类“最终审核”仍是底线。2026年,这一技术或已在印太热点部署,值得持续关注。

(本文约1050字)

本文编译自MIT Technology Review,作者James O'Donnell,2026-03-13。