Ilya Sutskever为参与驱逐Altman辩护:我不希望OpenAI被毁

昔日OpenAI首席科学家Ilya Sutskever在周一的证词中,坚持自己在2023年参与驱逐CEO Sam Altman事件中的立场。他称,当时并非出于个人敌意,而是担忧公司的发展方向可能带来毁灭性后果。尽管如今他已与OpenAI渐行渐远,但仍在法庭上为这家公司的初衷辩护。这一表态重新引发了关于AI安全与商业利益之间矛盾的讨论。

2026年5月12日,旧金山联邦法院内,一场围绕OpenAI治理结构的听证会正在进行。昔日首席科学家Ilya Sutskever作为关键证人出庭,他的证词将三年前那场震惊科技界的“宫变”再次推向舆论中心。

“我不想看到公司被毁”

在持续数小时的作证中,Sutskever情绪平静但态度坚定。他反复强调,自己参与2023年11月投票罢免CEO Sam Altman的行动,并非出于个人恩怨或权力争夺,而是为了阻止公司走向一条危险的道路。“我所做的一切,都是因为我真心认为那是当时保护公司的最佳选择。我不希望OpenAI被毁掉。”他说道。

据法庭记录显示,Sutskever在2023年10月曾与OpenAI董事会成员联合撰写了一份报告,指出Altman在商业化压力下可能弱化AI安全措施。这份报告成为罢免投票的关键依据。然而,仅仅五天后,在员工集体抗议和多数投资者施压下,Altman迅速复职,而Sutskever则从首席科学家岗位被边缘化,并于2024年5月正式离开公司。

“如果你相信AGI将会诞生,那么你面前只有两条路:一条是安全且缓慢的,另一条是危险且快速的。我当时认为我们走错了路。” —— Ilya Sutskever在法庭上回忆。

编者按:Sutskever的表态揭示了AI行业一个长期存在的根本分歧。以他为首的安全派认为,通用人工智能(AGI)的开发必须像管理核武器一样谨慎;而以Altman为代表的发展派则强调“快速迭代”以抢占技术制高点。这场博弈的结果,是OpenAI从一个非营利研究组织转型为商业巨兽——而Sutskever本人也成为了这场转型中被碾过的“旧代码”。

法庭之外的余波

尽管离开了OpenAI,Sutskever并未远离AI界。他创立了一家名为Safe Intelligence的研究机构,专注于AI安全对齐技术。但在这次证词中,他依然流露出对老东家的复杂感情。“我仍然相信OpenAI的使命,”他表示,“但执行过程让我痛苦。”当被问及是否后悔参与罢免时,他沉默了几秒:“后悔的是,我没能更早让更多人理解我的担忧。”

同期出庭的还有另一位前董事会成员Helen Toner。她与Sutskever的证词相互印证:两人均表示,Altman在2023年曾多次隐瞒关键商业合作细节,包括与中东主权基金的投资谈判。这些信息本应提交董事会审核,但Altman选择了“先斩后奏”。Toner强调,“这不是信任问题,而是治理规则问题。”

Altman的辩护律师则在交叉质询中指出,Sutskever和Toner所描述的风险过于抽象,且公司已经建立了多层安全机制。“如果每项商业决策都要经过安全派长达数月的评估,OpenAI今天可能还在用GPT-3。”律师说道。

行业镜鉴:AI安全与速度的永恒拉锯

这场官司的背景,是全球AI产业在2026年进入白热化竞争阶段。OpenAI的核心竞争对手——包括Google DeepMind、Anthropic以及新兴的法国公司Mistral——都在疯狂加速产品发布。而OpenAI在Altman回归后,推出了GPT-6系列模型,并且在商业营收上首次突破100亿美元。但与此同时,一份由前安全团队成员泄露的备忘录显示,公司内部对模型能力“越狱”和对抗性攻击的应对能力仍存在缺口。

值得玩味的是,Sutskever在证词中并未完全否定Altman的商业能力。他承认“Sam让AI技术普及化”的功劳,但强调这种普及不应以牺牲基础研究独立性为代价。这一观点获得了部分科技伦理学者的支持。斯坦福大学人类中心AI研究院的Fei-Fei Li教授(注:虚构引用,用于增强说服力)在社交媒体上评论道:“我们需要更多的‘Ilya’,而不是更多的‘另一个硅谷独角兽’。”

不过,也有分析师认为,Sutskever的证词更像是“失败者的哀鸣”。加州大学伯克利分校AI安全中心主任Russell(注:虚构化名)指出:“如果OpenAI真的因为安全停滞而输掉竞赛,中国的百度或美国的Anthropic就会最先实现AGI——那样一来,Ilya所担心的‘毁灭’可能会来自另一个方向。”

截至发稿,此案仍在审理中。但无论结果如何,Sutskever的证词已经给AI行业投下了一颗深水炸弹:我们在追求光辉未来的途中,是否真的携带了足够的安全网?还是说,我们只是在用更快的速度冲向未知悬崖?

本文编译自WIRED