This article has not been translated into English yet. Showing the original Chinese version.

特朗普AI政策转向:拟颁行政令联邦监管新模型

据WIRED最新报道,特朗普政府正考虑签署一项行政命令,对新兴AI模型建立联邦监管框架。此举标志着其AI政策的重大转向——从全面松绑转向适度管控。本文深入分析该行政令的背景、潜在内容及行业影响,探讨如何在创新与安全之间寻找平衡。

近日,WIRED《Uncanny Valley》播客披露了一则重磅消息:特朗普政府正在酝酿一项行政命令,旨在对新兴AI模型建立某种形式的联邦监管框架。这与其上一任期废除拜登AI行政令、推行“轻触式”监管的立场形成鲜明对比,引发了科技界和政策圈的广泛关注。

从“松绑”到“设限”:特朗普AI政策的U型转弯

回顾特朗普第一个任期,他在2023年10月签署了首份AI行政令,要求联邦机构评估AI风险并制定安全标准。然而,2025年重返白宫后,他迅速废除了该命令,转而采取“放手”策略,鼓励企业自主创新,减少政府干预。当时,科技巨头如OpenAI、谷歌和Meta对此表示欢迎,认为这为美国AI发展扫清了障碍。

但如今,风向突变。据知情人士透露,新行政令将要求开发“高影响力”AI模型(如参数超过10亿的生成式模型)的企业向商务部下属的新机构——AI安全审查办公室(OASR)提交安全测试报告,否则将面临出口限制或联邦合同禁令。此外,行政令还拟设立“AI模型联邦登记库”,对涉及国防、医疗、金融等关键领域的模型实施事前审查。

监管逻辑:安全焦虑压倒创新狂热

分析人士指出,这一转向背后有多重因素。首先是AI安全事件的频发。2026年初,一款名为“AutoCoder”的AI编程工具意外生成了可攻击电力系统的恶意代码,导致加州部分地区断电危机。尽管远未达到“奇点”级别,但恐慌情绪已弥漫国会山。其次,欧洲《人工智能法案》于2026年4月全面生效,美国科技企业担心因缺乏国内法规而在全球竞争中处于劣势。特朗普政府此举可视为对欧盟监管框架的“防御性跟进”,试图掌握规则制定权。

“特朗普并非突然成为AI安全信徒,而是嗅到了选民的恐惧——2026年中期选举在即,AI失业和隐私泄露是左右摇摆选民的关键议题。”——乔治城大学科技政策教授 艾米丽·李

与此同时,被DOGE(Department of Government Efficiency,政府效率部)裁员的工人也加入了政治角逐。一名前能源部IT主管因不满AI取代其岗位,宣布以独立候选人身份参选众议员,主张“人类优先”的AI发展原则。这与特朗普的监管转向形成了微妙的共鸣。

各方的博弈与隐忧

行政令的传闻让硅谷陷入分裂。大型科技公司多持谨慎欢迎态度,因为联邦法规将提高小型竞争对手的合规成本,巩固其市场地位。Apple和微软已在游说文件中提议“按计算量分级监管”,暗示愿意接受一定约束。而初创企业和开源社区则强烈反对,称监管会扼杀创新。Hugging Face联合创始人声称:“如果每发布一个模型都要等政府批准,美国AI将退回冷战时代。”

法律界也对行政令的权限提出质疑。美国商会表示,总统无权通过行政令强制要求私人公司披露商业机密(如模型权重),此举可能违宪。但支持者援引《国防生产法》和《国际紧急经济权力法》的先例,认为在国家安全名义下,政府有权对关键技术实施“紧急管控”。

编者按:监管天平正在回摆

从废除到重建,特朗普的AI政策逆转并非孤立事件。它反映出全球AI治理正在从“绝对开放”向“负责任创新”过渡。但行政令仅仅是第一步:国会尚未通过人工智能全面法案,联邦机构缺乏技术和人力来审查成千上万的模型。更重要的是,监管本身也可能催生新的不平等——资本雄厚的企业可以轻松应对合规,而草根开发者却被挡在门外。如何确保监管不成为创新的枷锁,将是对特朗普政府智慧的最大考验。

本文编译自WIRED