近年来,美国国防部(Pentagon)与领先AI公司Anthropic之间的公开争执,如同一枚重磅炸弹,炸开了美国政府监视权力的潘多拉魔盒。这个问题直击核心:法律究竟是否允许五角大楼利用AI技术对美国民众进行大规模监视?令人意外的是,答案远非黑白分明。
国防部与Anthropic的公开对峙
争执源于Anthropic拒绝向国防部提供其旗舰AI模型Claude的全面访问权限。Anthropic公开声明,其安全政策禁止将AI用于可能侵犯公民隐私的军事监视项目。这番表态迅速引发国防部反击,五角大楼指责Anthropic的立场'不爱国',并暗示将通过法律途径强制合作。事件迅速发酵,登上各大媒体头条。
'我们不会让AI成为监视工具。我们致力于负责任的AI发展。'——Anthropic CEO Dario Amodei
这一冲突并非孤例。早在2023年,OpenAI就因与军方合作开发聊天机器人而饱受争议,而Anthropic作为'安全优先'的AI新星,其立场更显激进。这反映出科技行业对政府监视应用的日益警惕。
斯诺登泄密:监视争议的起点
回溯2013年,爱德华·斯诺登(Edward Snowden)曝光美国国家安全局(NSA)通过PRISM等项目,从科技巨头如谷歌、苹果收集海量用户数据。这场泄密震惊全球,揭露了政府在反恐名义下对民众通信的'批量收集'(bulk collection)。国会匆忙通过《美国自由法案》(USA Freedom Act),试图限制NSA行为,但核心问题——Section 702的外国情报监视法(FISA)——至今存续。
Section 702允许NSA针对非美国人收集数据,但'附带'获取美国人信息的情况屡见不鲜。斯诺登事件后十年,FISA多次续签,却未根本改革。2026年,随着AI技术的爆发,这一法律框架面临全新考验。
美国监视法律的灰色地带
美国宪法第四修正案保护公民免受'不合理搜查和扣押',但情报机构游走于灰色地带。关键法律包括:
- FISA Section 702:针对外国目标,但美国人数据常被' incidentally' 收集。
- Executive Order 12333:总统令授权海外监视,无需法院批准。
- Patriot Act:9/11后遗留,扩大数据共享权限。
AI的介入让问题复杂化。传统监视依赖人力分析,而AI能实时处理PB级数据,识别模式、预测行为。五角大楼的Maven项目已用AI分析无人机视频,如今扩展到社交媒体、网络流量。法律是否涵盖AI?联邦法院尚未明确裁定。
隐私倡导者如ACLU警告,AI可能实现'预测性警务',侵犯言论自由。反之,国防部辩称,反恐需要AI,法律已有足够监督。
本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com。
AI在监视中的新兴角色与风险
AI监视潜力巨大。以Anthropic的Claude为例,其多模态能力可分析文本、图像、视频,构建公民画像。国防部拟用AI监控社交平台,检测'威胁信号',如极端言论或异常行为。
行业背景:Palantir等公司已深度嵌入军方生态,提供AI数据分析平台,年营收数十亿美元。谷歌曾因Project Maven退出,但微软Azure云服务悄然接棒。Anthropic的拒绝凸显分化:OpenAI转向军用,xAI(马斯克)公开支持国防。
风险显而易见:算法偏见可能针对少数族裔;数据泄露如Cambridge Analytica重演;'黑箱'AI决策缺乏透明。欧盟GDPR提供借鉴,但美国缺乏类似联邦隐私法。
专家观点与未来展望
斯坦福法学教授Jennifer Granick表示:“AI监视模糊了战争与和平界限,法律亟需更新。”前NSA官员William Binney警告:“批量监视已成常态,AI将放大侵犯。”
国会正酝酿《AI权利法案》,拟要求监视AI经法院批准。但党派分歧大,共和党强调国家安全,民主党推隐私优先。拜登政府2025年AI执行令虽提伦理,但执行力不足。
展望未来,若Anthropic败诉,将开启AI军用洪闸;若胜诉,或激发行业自律浪潮。中国、俄罗斯的AI监视已领先,美国若落后,将在情报竞赛中失分。
编者按:平衡安全与自由的紧绷弦
五角大楼与Anthropic之争不仅是商业摩擦,更是民主价值的试金石。AI时代,监视从被动变主动,从针对性变预测性。政府需透明,科技企业需担当。否则,'老大哥'的阴影将笼罩自由世界。我们呼吁国会尽快立法,划定AI监视红线,确保技术服务人类而非奴役之。
(本文约1050字)
本文编译自MIT Technology Review,作者Michelle Kim,2026-03-07。
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。