在AI行业风起云涌之际,一则重磅人事变动震动了科技圈:OpenAI机器人团队负责人Caitlin Kalinowski突然宣布辞职,直接原因是公司与美国国防部(Pentagon)的争议性协议。这一事件不仅暴露了OpenAI在商业扩张与伦理底线间的冲突,还引发了业界对AI军用化的广泛担忧。
事件始末:辞职背后的直球声明
据TechCrunch报道,2026年3月8日,硬件资深高管Caitlin Kalinowski在LinkedIn上发布声明,明确表示:
‘鉴于OpenAI最近与国防部的协议,我无法继续领导机器人团队。这项协议与我对AI技术的愿景背道而驰,我选择辞职。’作为OpenAI硬件部门的关键人物,Kalinowski自2024年起负责机器人项目,她曾主导多项人形机器人原型开发,推动OpenAI从纯软件向硬件生态转型。
她的离职并非孤例。OpenAI近年来人才流动频繁,尤其是涉及伦理敏感领域。Kalinowski的背景丰富:曾在Apple和Tesla任职,擅长机器人硬件集成。此次辞职直指OpenAI与Pentagon的合作协议,据悉该协议涉及AI驱动的自主系统,用于国防侦察和后勤优化,总额高达数亿美元。
OpenAI机器人团队的崛起与隐忧
OpenAI的机器人野心由来已久。早在2023年,公司便推出Figure 01人形机器人合作项目,与波士顿动力等竞争。随后,Kalinowski加入后,团队加速推进‘通用机器人基础模型’(Universal Robotics Foundation Model),旨在让AI无缝控制物理实体,实现从仓库自动化到家庭助手的跃迁。
行业背景中,机器人市场正爆炸式增长。根据Statista数据,全球机器人市场预计2026年达5000亿美元,中国和美国领跑。OpenAI借GPT系列大模型优势,试图抢占先机。但硬件门槛高企:传感器融合、实时决策和安全冗余等挑战层出不穷。Kalinowski的团队曾展示多模态机器人,能通过语音和视觉自主导航,这在NeurIPS 2025大会上获赞无数。
五角大楼协议:从禁军到拥军转折
OpenAI的军方合作并非新鲜事。公司创始人Sam Altman曾公开表示,AI应‘有益全人类’,并在2018年签署‘不开发致命自主武器’承诺。但2025年底,地缘紧张加剧,美国政府推动‘AI国家安全倡议’,OpenAI随之松绑政策,与Pentagon签署框架协议。
本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com。
协议细节虽保密,但业内推测包括:AI优化无人机群、战场模拟和情报分析。这与Google 2018年Project Maven事件类似,当时数百员工抗议致项目流产。OpenAI的转变或源于竞争压力:Anthropic和xAI已涉足国防,微软(OpenAI最大投资人)Azure云也深度绑定军方。
补充背景:美国《国家AI战略》强调军民融合,中国‘十四五’规划亦重AI国防。全球AI军备赛已启,欧洲GDPR式伦理管制难阻美中步伐。
行业冲击:伦理红线与人才外流
Kalinowski辞职或引发连锁反应。OpenAI机器人项目进度或延缓,投资者担忧加剧。公司股价(若上市)恐承压。更深层是AI伦理辩论:军用AI是否加速‘奇点’风险?专家如Yoshua Bengio警告,自主武器易失控。
类似案例比比皆是:2024年,Meta AI伦理主管离职;2025年,DeepMind多名研究员抗议Google军方合同。人才是AI核心,OpenAI已流失Ilya Sutskever等大牛,此次事件雪上加霜。
编者按:AI的双刃剑需谨慎把控
作为AI科技新闻编辑,我认为OpenAI的Pentagon协议标志着行业分水岭。一方面,国防资金加速创新;另一方面,违背‘开源有益’初衷恐失人心。Kalinowski的勇气值得敬佩,她提醒我们:技术中立神话已破,开发者须守护底线。未来,AI治理框架(如联合国AI公约)亟需完善,以防军用滥用。中国企业如百度Apollo在民用机器人领跑,可借鉴伦理优先模式。OpenAI需重塑信任,否则机器人梦恐成泡影。
(本文约1050字)
本文编译自TechCrunch,作者Anthony Ha,原文日期2026-03-08。
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。