在埃隆·马斯克对OpenAI提起的诉讼中,一位声音格外引人注目——Stuart Russell,加州大学伯克利分校的AI教授,也是全球最具影响力的AI安全研究者之一。作为马斯克方面唯一的AI专家证人,Russell在法庭上描绘了一幅令人不安的图景:AI领域的顶尖实验室正陷入一场危险的AGI(通用人工智能)军备竞赛,而这场竞赛的终点可能是人类无法控制的超级智能。
AGI军备竞赛:硅谷的新冷战
Russell在证词中强调,当前AI发展的速度已经远超预期。OpenAI、Google DeepMind、Anthropic等前沿实验室之间的竞争日趋白热化,每个团队都在争相发布更强大的模型。这种竞争模式,Russell认为,与冷战时期的核军备竞赛惊人地相似——各方都认为抢先一步就能占据战略优势,却忽视了失控的风险。“当每个实验室都认为‘如果我们不先做,别人就会做’时,”Russell在法庭上表示,“这会形成一个囚徒困境,导致所有人都不愿意减速,哪怕明知这样做可能带来灾难。”他进一步指出,AGI的开发不应被视为普通商业活动,而应被当作类似于核武器研发的“危险技术”,需要严格的国际监管。
“我们正在用人类未来做赌注,而赌注一旦输掉,就没有重来的机会。”——Stuart Russell在庭审中作证
马斯克的诉讼:理念与利益的交织
马斯克起诉OpenAI的起因,源于他声称该公司违背了非营利、造福人类的创始承诺。2015年,马斯克与Sam Altman等人共同创立OpenAI,旨在开发安全且对全人类有益的AGI。但在2018年马斯克离开董事会后,OpenAI转向了“有限利润”模式,并接受了微软的数十亿美元投资。马斯克认为,这种商业化破坏了最初的使命,并试图通过法律手段阻止OpenAI将核心技术用于商业牟利。
Russell的证词为马斯克的立场提供了学术支撑:他不仅认同OpenAI的转型背离了初衷,更警告这种模式下安全优先级可能被利润侵蚀。“当一家公司的主要目标变成回报投资者时,AGI安全往往会被抛到脑后,”Russell说,“这不是对OpenAI的指责,而是对任何在激烈竞争中追求商业盈利的AI公司的结构性担忧。”值得注意的是,Russell并非马斯克的拥趸;他曾在多个场合批评马斯克对AI风险的夸张表述,但他认为在这个特定案件中,马斯克提出的问题值得全行业反思。
政府监管:拯救人类的唯一希望?
Russell的核心主张是:仅靠行业自律无法应对AGI带来的系统性风险。他呼吁各国政府建立类似于国际原子能机构的全球AI监管框架,包括强制性的安全测试、模型发布前的审查机制、以及“紧急制动”条款。“我们不需要禁止AI研究,”Russell解释道,“但我们需要确保任何AGI的开发都在安全可控制的范围内进行。”他特别指出,当前的AI监管讨论往往落后于技术进展,政策制定者需要更快行动。例如,美国白宫此前发布的《AI权利法案蓝图》和欧盟的《AI法案》虽然具有开创性,但仍未涉及对AGI实验室的直接约束。
令人深思的是,Russell的证词同时也暴露了AI安全领域的矛盾:一边是科学家们大声疾呼风险,另一边是科技巨头加速投入研发。马斯克本人一边起诉OpenAI,一边却也在加速推进自己的xAI公司——这种“既竞争又批判”的姿态,使得这场审判更像是一场复杂的大公司博弈,而非纯粹的理念之争。
编者按:审判之外的更大议题
这起案件不仅是法律纠纷,更是关乎人类未来的哲学争论。如果AGI真的在未来十年内出现,那么当第一个“失控”的超级智能诞生时,谁该负责?是那些贪婪的企业?是沉默的政府?还是我们这些坐视不管的大众?Russell的证词或许不能改变马斯克诉OpenAI的审判结果,但它为我们敲响了警钟:在技术的狂飙中,我们需要停下脚步,思考人类是否准备好迎接自己亲手创造的“神”。
本文编译自TechCrunch
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接