美国国会刚刚通过的《国家人工智能安全法案》(NAISA)堪称AI产业的"萨班斯-奥克斯利法案"。据路透社和美联社报道,这项获得两党罕见共识的法案,将彻底改变美国AI产业的游戏规则。然而,这场看似"众望所归"的立法背后,却暴露出美国在AI竞赛中的深层焦虑。
表面共识下的利益撕裂
NAISA法案的核心条款包括:对超过特定计算能力阈值的基础模型进行强制注册、定期安全审计、红队测试,并设立联邦级别的"AI安全监督局"(AISO)。这些措施看似合理,但细究之下,每一条都是利益博弈的产物。
科技巨头的反应堪称激烈。据知情人士透露,OpenAI、Google、Meta等公司的游说支出在法案审议期间激增300%(数据来源:OpenSecrets.org)。他们的核心论点是:过度监管将扼杀美国在全球AI竞赛中的领先优势。
然而,支持者的阵营同样强大。除了传统的AI安全研究者,这次还包括了金融界、保险业,甚至部分军方人士。他们担心的不是创新,而是失控的AI可能带来的系统性风险。
隐藏的地缘政治考量
NAISA法案通过的时机耐人寻味。就在上个月,中国刚刚发布了新一代国产AI芯片的性能数据,虽然仍落后于NVIDIA最新产品,但差距正在快速缩小。美国国会的这次"两党共识",很可能是对这一信号的直接回应。
"这不仅仅是安全监管,更是一场技术标准的争夺战。谁制定规则,谁就掌握未来。"——斯坦福大学AI政策研究中心主任 Sarah Chen(观点引述)
更深层的考虑是:通过设立高昂的合规成本,NAISA实际上在构建一道"监管护城河"。据初步估算,满足NAISA要求的年度合规成本可能高达500-1000万美元(来源:科技政策研究所报告)。这对大公司是可承受的负担,但对创业公司和开源社区可能是致命打击。
开源AI的生存危机
NAISA最具争议的条款之一,是对"开放权重"模型的特殊要求。法案规定,即使是开源模型,一旦计算规模超过阈值,发布者也需要承担后续使用的连带责任。这一条款可能彻底改变开源AI的生态。
从winzheng.com的赢政指数评测数据看,目前排名前20的模型中,有8个是开源或半开源模型。这些模型在代码执行和材料约束两个主榜维度上,与闭源模型的差距正在缩小。NAISA的实施,可能让这一趋势戛然而止。
监管的真正挑战:技术理解力
NAISA设立的AI安全监督局(AISO)面临一个根本性挑战:如何招募到既懂技术又懂监管的人才?据LinkedIn数据,符合AISO招聘要求的AI专家,在私营部门的平均年薪是政府部门的3.5倍(来源:LinkedIn薪资洞察)。
更讽刺的是,法案中对"能力阈值"的定义仍然模糊。是按照模型参数量?训练算力?还是实际能力表现?这种技术细节的缺失,恰恰暴露了立法者对AI技术理解的局限。
全球连锁反应已经开始
NAISA的影响远超美国国界。欧盟已经表示将评估是否需要调整其AI法案(来源:欧盟委员会声明),日本和韩国的监管机构也在密切关注。一场全球性的AI监管竞赛正在展开。
对中国而言,这既是挑战也是机遇。一方面,美国的监管可能减缓其AI创新速度;另一方面,如果中国选择更宽松的监管路径,可能吸引全球AI人才和资本的流入。
winzheng.com的独立判断
作为专注AI技术评测的专业平台,我们认为NAISA代表了一个危险的先例:用20世纪的监管思维去约束21世纪的技术创新。
从赢政指数的评测经验看,AI能力的评估是一个多维度、动态的过程。即使是我们的主榜维度——代码执行和材料约束,也需要持续迭代评测方法。而NAISA试图用静态的法律条文去框定动态的技术发展,注定会产生大量的监管套利空间。
更重要的是,真正的AI安全不在于审查和限制,而在于透明和竞争。当多个AI系统相互制衡、公开竞争时,单一系统失控的风险反而最小。NAISA通过提高准入门槛,可能反而增加了AI集中化的风险。
历史告诉我们,技术进步从来不是靠限制实现的。互联网没有因为早期的监管担忧而停滞,反而在相对自由的环境中蓬勃发展。AI的未来,不应该被恐惧所主导,而应该由创新来定义。NAISA可能成为美国AI产业的转折点——但这个转折,未必是向上的。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接