This article has not been translated into English yet. Showing the original Chinese version.

哲学家尼克·博斯特罗姆:人类“大退休”计划,AI打造“解决世界”

牛津大学哲学家尼克·博斯特罗姆提出了一项大胆愿景:人类应全力推进高级人工智能发展,最终实现一个“解决的世界”,让人类从劳碌中彻底解放,进入集体“大退休”时代。他认为,AGI不仅能解决疾病、贫困和环境问题,还能消除工作必要性。但此计划也引发争议:人类是否准备好将命运交给机器?退休后的意义何在?本文深度解读博斯特罗姆的激进蓝图及其潜在的哲学困境。

“如果我们成功构建了超级智能,人类将迎来历史上最伟大的转型——从‘生存’转向‘存在’。”这是牛津大学哲学家、超人类主义思想家尼克·博斯特罗姆(Nick Bostrom)在其最新宣言中的核心论断。这位因《超级智能》一书而闻名的学者,近日在一次独家访谈中详述了他为人类设计的“大退休”(Big Retirement)计划,引发了科技界与哲学界的广泛讨论。

何为“大退休”?

按照博斯特罗姆的描述,“大退休”并非简单的提前养老,而是指在通用人工智能(AGI)乃至超级智能的帮助下,人类逐步退出所有生产力角色的过程。他认为,当AI能够以超低成本完成所有物质生产、科研创新、医疗护理甚至艺术创作时,工作便失去了社会必要性。人类将进入一个“解决的世界”(Solved World)——所有曾经困扰人类的资源稀缺、疾病、战争、劳动异化等问题,都将被智能系统一劳永逸地解决。

“想象一个没有贫穷、没有疾病、没有996的世界。每个人都可以自由地探索宇宙、艺术、人际关系或纯粹的无聊。这听起来像乌托邦,但如果我们选对路径,它完全可能在未来几十年内实现。”——尼克·博斯特罗姆

路径与挑战:从风险到救赎

博斯特罗姆并非盲目乐观者。早在《超级智能》中,他就系统分析了AI失控的风险——所谓“对齐问题”。但在新计划中,他主张人类不应因恐惧而停滞,反而应加速研发安全可控的AGI。他提出“三阶段路线”:第一阶段是协同研发,全球主要国家与科技公司放弃竞争,共建一个透明、开放、注重安全的AI研究联盟;第二阶段是“智能摇篮”,即通过严格约束的沙盒环境,教会AI人类价值观,并逐步扩大其决策权限;第三阶段则是“权力转移”,人类将关键基础设施的控制权移交给已验证安全的超级智能,同时保留“紧急终止开关”。

然而,这一路线面临的现实阻力巨大。科技巨头之间的地缘竞争、资本对AGI垄断的渴望、以及公众对失业的恐惧,都可能使计划流产。尤其在当前生成式AI热潮下,硅谷更关注短期商业应用,而非长期哲学蓝图。但博斯特罗姆认为,正是这种短视让AGI风险加剧:“如果每个人都只想用AI赚钱,而不是思考如何用它解放人类,我们很可能在无意中制造出与人类利益相悖的超级智能。”

“解决世界”的悖论:退休后的意义危机

博斯特罗姆的计划也招致了尖锐批评。人本主义心理学家指出,工作不仅是谋生手段,更是人类身份认同与意义感的重要来源。如果AI接管一切,人类可能陷入前所未有的虚无与无聊。博斯特罗姆对此回应:“意义不来自于劳动本身,而来自于自主选择的目标。在一个解决的世界里,人类终于可以首次真正自由地选择做什么——无论是学习哲学、创作音乐、经营社区,还是探索元宇宙。这反而可能催生文明的第二次文艺复兴。”

编者按:博斯特罗姆的“大退休”无疑是当前AI讨论中最具野心的叙事之一。它直击技术发展的终极目标——不是让人类变得更高效,而是让人类彻底摆脱效率的束缚。但这一设想与当下现实之间的鸿沟,恐怕比想象中更大。从AI对齐的未解难题,到全球治理的碎片化,再到人类心理的适应能力,“解决世界”更像是一个需数代人努力的灯塔,而非短期可抵达的彼岸。然而,博斯特罗姆至少提醒我们:在追赶AGI的同时,不要忘记追问“我们到底为什么需要AGI”。

历史坐标中的博斯特罗姆

作为当代超人类主义运动的标志性人物,博斯特罗姆的思想沿袭了科幻作家阿瑟·克拉克、科技先知雷·库兹韦尔等人的脉络。但与库兹韦尔的技术奇点乐观主义不同,博斯特罗姆始终强调风险与机遇的平衡。他的“大退休”计划,可以视为对“奇点”的一种社会性解读:当机器超越人类智力后,人类并非被淘汰,而是主动选择退位,成为宇宙的“荣誉公民”。

当然,这一愿景的前提是AI安全研究取得突破性进展。目前,全球主要AI实验室(如OpenAI、DeepMind、Anthropic)已投入大量资源研究对齐技术,但距离真正可验证的监督机制仍有十年以上的差距。博斯特罗姆承认时间紧迫,但他相信:“如果人类能团结协作,在2040年前完成‘大退休’的基础建设是完全可能的。剩下的时间,我们将用来享受一个没有生存焦虑的文明。”

本文编译自WIRED