引言:AI工具走进政府审查前沿
在美国卫生与公众服务部(HHS)的资助审核流程中,AI技术正扮演着日益重要的角色。根据WIRED记者Caroline Haskins的报道,自2025年3月以来,HHS已部署Palantir和Credal AI的工具,用于识别并排除那些被视为与‘DEI’(Diversity, Equity, and Inclusion,多样性、公平与包容)或‘性别意识形态’相关的资助申请。这一举措标志着AI从商业数据分析向政府政策执行的深度渗透,也引发了关于言论自由、技术中立性和政治干预的激烈辩论。
‘自2025年3月起,卫生与公众服务部一直在使用Palantir和初创公司Credal AI的工具,来剔除那些被视为支持“DEI”或“性别意识形态”的内容。’——原文摘要
Palantir与Credal AI:技术背后的巨头与新星
Palantir Technologies是一家成立于2003年的数据分析公司,由彼得·蒂尔(Peter Thiel)等人创立,以其强大的大数据平台闻名。该公司曾为美国情报机构和移民与海关执法局(ICE)提供服务,帮助追踪移民数据,其争议性一直备受关注。Palantir的Gotham和Foundry平台擅长处理海量非结构化数据,通过自然语言处理(NLP)和机器学习算法,能快速扫描文本、提取关键词并生成风险评分。
相比之下,Credal AI是一家新兴初创公司,专注于企业级AI数据治理和合规工具。其平台强调‘数据可观测性’,能监控AI模型的输入输出,检测敏感内容如偏见或违规言论。在HHS的应用中,这些工具可能被整合用于自动化审核资助提案:算法扫描申请书,识别如‘性别流动’、‘非二元性别’或DEI相关术语,一旦匹配阈值,即标记为高风险。
行业背景来看,AI在政府资助审核中的应用并非新鲜事。早在2020年,美国国家科学基金会(NSF)就引入AI辅助评审,以提高效率。但HHS的此次部署更具针对性,直接指向特定意识形态,这与特朗普政府时期的反DEI浪潮相呼应。2024年大选后,新政府推动‘反觉醒’政策,HHS作为联邦健康领域最大资助机构,年预算超1600亿美元,其AI筛查将直接影响医学研究、公共卫生项目。
DEI与性别意识形态:争议的焦点
DEI倡议源于20世纪90年代的企业多样性运动,旨在促进职场公平,但近年来在美国保守派中饱受批评,被指责为‘逆向歧视’。同样,‘性别意识形态’常指LGBTQ+相关议题,如跨性别医疗和学校性别教育,这些在资助中可能涉及心理健康研究或社区项目。
HHS官员表示,此举旨在确保纳税人资金不用于‘非科学’议程,而是聚焦核心健康需求。然而,批评者认为这是一种政治清洗。AI工具的关键词匹配虽高效,却忽略语境:一篇关于心理健康的提案可能因提及‘性别多样性’而被拒,进而扭曲科研方向。
编者按:AI政治化的双刃剑
作为AI科技新闻编辑,我认为HHS的这一实践凸显了AI治理的紧迫性。一方面,自动化审核能提升效率,减少人为偏见;另一方面,当算法被注入政治偏好时,将放大分歧。Palantir的军工背景已招致隐私担忧,此次应用更可能引发诉讼:资助申请人是否有权知晓AI决策依据?算法透明度如何保障?
更广层面,全球AI监管正加速。欧盟的AI法案将高风险应用列为重点,美国联邦贸易委员会(FTC)也调查Palantir的反垄断问题。中国在AI伦理上强调‘算法备案’,值得借鉴。未来,HHS需公开算法细节,避免‘黑箱’操作,否则将损害公众对科技的信任。
潜在影响与行业回响
这一政策已波及学术界。多家大学研究团队报告,DEI相关项目资助率骤降20%以上。生物医学领域,如癌症筛查中的公平性研究,可能因触及DEI而受阻。同时,Credal AI等初创受益匪浅,其估值或因政府订单飙升。
专家观点分歧:斯坦福大学AI伦理教授Timnit Gebru警告,‘AI审查将制造回音室效应,抑制创新’;而保守智库遗产基金会赞扬其‘恢复理性’。技术上,类似工具依赖训练数据,若数据集偏向保守叙事,输出将不公。
展望未来,随着2026年中期选举临近,此类AI应用或扩展至教育部、司法部。企业需警惕:Palantir股价已因订单上涨5%,但声誉风险并存。
结语:平衡创新与价值观
HHS的AI筛查实验提醒我们,技术并非中立。如何在效率与公平间权衡,将考验美国AI政策的智慧。
本文编译自WIRED,作者Caroline Haskins,日期2026-02-03。