谁定AI告诉你的内容?前Meta新闻主管有话说

Campbell Brown,曾担任Meta的新闻合作主管,如今将目光投向了AI内容决策领域。她认为硅谷与消费者之间的对话存在巨大鸿沟——科技公司专注于技术优化,而普通用户更关心信息真实性、偏见与透明度。随着生成式AI普及,谁来决定AI输出的内容成为一个紧迫问题。

从新闻合作到AI伦理:Campbell Brown的转型之路

Campbell Brown,这位曾在Meta负责新闻合作事务的高管,如今正在思考一个更为根本的问题:当AI成为信息的主要策展人,谁来决定它告诉你的内容?在旧金山举行的AI与媒体峰会上,她指出“硅谷的讨论围绕着一个方面,而消费者之间的讨论完全是另一个层面”。这种认知鸿沟正在加剧公众对AI的不信任。

作为前CNN记者,Brown在Meta任职期间(2016-2022)负责与全球新闻出版商建立合作关系,处理假新闻、内容审核等棘手问题。她亲眼目睹了算法如何塑造人们的认知世界。如今,她将经验应用于AI领域,认为当前最大的挑战不是技术本身,而是决策权的归属。

算法黑箱:谁在训练AI的价值观?

Brown在演讲中强调,大型语言模型和推荐系统的训练数据、微调方式、安全策略都隐含着价值判断。“当ChatGPT拒绝回答某个问题,或优先呈现某种观点时,背后是工程师、产品经理甚至高管的决策。”她引用了一项学术研究,指出主流AI助手在政治、社会议题上存在可测量的偏见,且这种偏见往往反映了硅谷精英的倾向。

“科技公司口口声声说AI是工具,但工具的设计者本身就带有偏见。我们需要更透明的决策机制,让公众知道AI‘为什么’这么说。”——Campbell Brown

这种观点呼应了近年来对算法审计的呼吁。Brown认为,应该像食品标签一样,为AI输出的内容附上“决策来源说明”,让用户了解推荐或生成结果的逻辑。

消费者与现实撕裂

Brown指出另一个严峻问题:硅谷内部讨论的是“对齐”、“幻觉”、“安全性”,而普通用户关心的却是“AI是否在骗我”、“我的工作是否会被取代”、“为什么AI的回答前后矛盾”。两者之间几乎没有交集。她建议科技公司走出回音室,与教育工作者、社区领袖、监管者进行真正对话,而非仅与同行交流。

她还批评了当前AI产品的“黑箱友好”设计——让界面显得简单易用,却掩盖了复杂性。例如,聊天机器人看似提供了一个答案,但用户无法知道它依据了哪些来源、是否有争议、是否存在替代观点。

编者按:一场迟到的对话

Campbell Brown的观点切中了当下AI治理的要害。当OpenAI、Google、Meta等公司竞相推出更强大的模型时,关于“AI说什么”的争论往往被技术进展的欢呼淹没。事实上,在过去两年中,多项调查显示超六成美国成年人对AI传播错误信息表示担忧。但解决方案不应仅仅是技术层面的“红队测试”或“人类反馈强化学习”,更需要制度性的参与——让用户、公民社会、政府共同参与制定AI的输出规则。

Brown离开Meta后的角色转变具有象征意义:从平台内容政策的制定者,到独立的声音倡导者。她正在筹办一个名为“AI公开”的非营利组织,旨在推动AI输出透明化标准。这或许是硅谷需要认真倾听的信号。

本文编译自TechCrunch