This article has not been translated into English yet. Showing the original Chinese version.

迪勒:信任奥特曼,但AGI面前信任无关紧要

IAC主席巴里·迪勒(Barry Diller)在公开场合力挺OpenAI CEO萨姆·奥特曼(Sam Altman),但同时发出严厉警告:随着AGI(通用人工智能)逐渐逼近,个人信任已变得无关紧要,人类必须为这一不可预测的力量设置安全护栏。迪勒的言论折射出科技界对AGI风险的深层焦虑:无论领导者多么值得信赖,技术本身的失控风险仍然存在。

在科技行业,信任是一件奢侈品,尤其是在人工智能快速迭代的当下。近日,IAC(InterActiveCorp)董事长巴里·迪勒在接受采访时,罕见地为OpenAI CEO萨姆·奥特曼进行了辩护,称他是一位“认真且负责任”的领导者。但迪勒话锋一转,明确表示:当AGI(通用人工智能)真正到来时,对个人的信任将变得毫无意义——因为技术本身将拥有超越任何单个领袖决策的能力。

信任奥特曼,但不信任AGI

迪勒直言,他个人相信奥特曼会努力确保AI安全发展,但“信任是无关紧要的”。他解释说,AGI一旦实现,其演化的速度和方向将可能脱离人类控制,即便奥特曼心怀善意,也无法保证他或任何继任者能永远掌控局势。迪勒的论调与部分AI安全研究者的担忧不谋而合:在超智能面前,人类制度、伦理协议乃至个体意愿都可能瞬间失效。

“你可以信任萨姆,但你不能信任一个你无法理解的系统。AGI不是玩具,它可能是我们最后一项发明。” —— 巴里·迪勒

AGI临近:行业共识与分歧

OpenAI一直将“安全构建AGI”作为使命,但外界对其透明度和风险管控的质疑从未停止。2025年,OpenAI曾发布内部备忘录,承认AGI可能在2030年前达到“人类级推理能力”,而最近的GPT-5系列模型更被曝出具备初步的“递归自我改进”迹象。与此同时,包括埃隆·马斯克在内的多位科技领袖多次呼吁暂停巨型AI训练,理由是“对社会构成深远风险”。

迪勒的发言代表了主流商业领袖中罕见的清醒态度:他们既不贬低AI的潜力,也不盲目崇拜创始人的权威。他特别指出,即使奥特曼被解职(暗指2023年OpenAI董事会的戏剧性事件),董事会更替也不会改变AGI的失控风险,因为问题不在于谁管事,而在于技术本身是否被设计出足够的安全边界。

编者按:信任崩塌与制度之困

迪勒的“信任无关论”其实触及了一个核心矛盾:在AGI这样可能重塑文明的技术面前,人类社会的传统信任机制(如法律、监管、领袖信誉)是否还能奏效?目前,全球AI监管仍停留在功能层面的“算法责任”,缺乏对通用智能的“存在性风险”防范。欧盟AI法案将AGI归类为“高风险”,但并未要求其具备可验证的“安全坠断”机制。

从更广的视角看,迪勒的警告实际上是对硅谷“创始人崇拜”文化的反思。过去十年,科技领袖的个人魅力往往被当作企业伦理的担保,但面对AGI这种可能脱离人类意图的实体,个人的善意早已不够。真正的安全需要更底层的基础设施——比如可解释性研究、对抗性验证、以及硬性的“不可改变的安全命令”。

结语:AGI时代,信任需要重新定义

巴里·迪勒的讲话之所以引发关注,不仅因为它来自一位媒体和娱乐帝国的掌门人,更因为它揭示了AI行业内外一种普遍的不安:我们正在创造一个可能比我们更聪明、更快进化的“他者”,而我们唯一的防御措施竟然是相信少数几个人。这种不安或许会推动更多务实举措——例如强制性透明度报告、第三方程式审计、以及AGI开发中的“紧急暂停”协议。

正如迪勒所说:“我希望自己错了,但历史告诉我,当技术足够强大时,最好假设它不会永远受控。”

本文编译自TechCrunch