AI审查 (共3篇)

ARS

Kagi AI大胆回应:饥渴撒切尔夫人会说什么?

Kagi Translate的AI搜索引擎最近因回答一个荒诞问题‘饥渴的玛格丽特·撒切尔会说什么?’而走红。该AI以撒切尔标志性铁娘子口吻生成了一段幽默而大胆的回应,引发网友热议。这不禁让人回想起早期LLM的‘玩乐时代’,那时AI生成无拘无束的内容充满惊喜。如今,随着安全过滤加强,这种趣味性渐行渐远。本文探讨Kagi的独特定位、AI审查趋势及行业启示。(128字)

Kagi AI LLM生成 AI审查
43
WD

中国AI聊天机器人如何自我审查

斯坦福大学和普林斯顿大学的研究人员发现,中国AI模型比西方同行更倾向于回避政治敏感问题,或给出不准确答案。这一现象揭示了中国AI在监管压力下的自我审查机制。研究测试了多款热门模型,如百度Ernie和阿里通义千问,发现它们在涉及天安门事件、台湾地位等话题时,常以‘无法回答’或转移话题回应。与ChatGPT等西方模型相比,中国AI的审查更严格。这不仅影响信息透明度,还凸显中美AI发展路径的分歧。随着AI全球竞争加剧,此类审查机制或将重塑国际AI伦理标准。(128字)

AI审查 中国大模型 斯坦福研究
362
WD

美国卫生部启用Palantir AI工具 筛查资助中的DEI与性别议题

自2025年3月起,美国卫生与公众服务部(HHS)开始使用Palantir和初创公司Credal AI的工具,对资助申请进行审查,旨在剔除那些被视为支持‘DEI’(多样性、公平与包容)或‘性别意识形态’的内容。这一举措引发了关于AI在政府决策中政治化应用的广泛争议。Palantir作为数据分析巨头,其工具被用于扫描文本、识别关键词,可能影响科研资助的公平性。专家担忧这将加剧社会分歧,并质疑AI算法的偏见问题。