Grammarly,这款备受全球用户喜爱的AI写作助手,正面临一场棘手的集体诉讼风暴。起因是其备受争议的‘专家审阅’(Expert Review)功能,该功能未经授权便以知名作者和学者的名义呈现编辑建议,导致Grammarly于周三紧急关闭该特性。WIRED记者Miles Klee于2026年3月12日报道,此事不仅暴露了AI在创意领域的伦理隐患,还可能为整个行业敲响警钟。
事件始末:从创新功能到法律危机
Grammarly的‘专家审阅’功能原本旨在提升用户写作体验。它通过AI算法生成编辑建议,并以虚构的‘专家’身份呈现,例如声称建议来自畅销书作家如Malcolm Gladwell或学术泰斗如Noam Chomsky。这些建议包括语法优化、风格调整和内容重构,看似高端专业,却未获得任何当事人的许可。
‘该功能以知名人士的名义呈现建议,却未经他们的同意。’——WIRED报道
周三,Grammarly官方宣布关闭该功能,并道歉称这是‘技术失误’。但为时已晚,多位受影响的作者和学者已联合提起集体诉讼,指控Grammarly侵犯肖像权、虚假广告和不当获利。原告律师表示,这类似于未经许可使用名人肖像进行商业推广,可能违反美国联邦贸易委员会(FTC)规定和多州消费者保护法。
功能剖析:AI如何‘冒充’专家
回顾Grammarly的发展,该公司成立于2009年,从简单的拼写检查工具演变为全能AI写作平台。2023年后,随着生成式AI如GPT模型的兴起,Grammarly推出多项高级功能,包括‘专家审阅’。用户上传文本后,AI不仅提供通用建议,还模拟特定专家的视角,例如‘根据Stephen King的叙事技巧,你的开头需更紧凑’。
技术实现上,这依赖于Grammarly的专有大语言模型(LLM),训练数据涵盖海量公开文本。但问题在于,AI生成的‘专家声音’并非真实引用,而是基于公开信息推断的合成输出。这引发了‘深度伪造’式争议:用户误以为是专家真知灼见,从而提升对工具的信任。
法律与伦理双重挑战
集体诉讼的核心在于‘未经同意使用身份’。在美国,名人肖像权(Right of Publicity)受严格保护,州法如加州民法典第3344条明确禁止商业利用他人姓名、形象。原告方还援引兰哈姆法(Lanham Act),指Grammarly的做法构成虚假代言,可能误导消费者。
Grammarly回应称,该功能纯属‘创意演示’,非真实背书,并已移除所有相关内容。公司发言人表示:‘我们致力于AI透明度,此事将推动我们完善合规机制。’但法律专家预测,此案可能拖延数年,赔偿金额或达数百万美元。
本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com。
行业背景:AI写作工具的隐私困境
这并非孤例。AI写作领域正高速扩张,市场规模预计2026年超100亿美元。竞争对手如QuillBot、Jasper AI也推出类似‘智能建议’功能,但鲜有模拟真人专家。2024年,OpenAI因训练数据侵权遭《纽约时报》起诉;2025年,Anthropic的Claude模型卷入名人声音克隆争议。
更广层面,欧盟《AI法案》(AI Act)已将此类‘高风险AI’纳入监管,要求明确披露生成内容来源。中国《生成式人工智能服务管理暂行办法》同样强调数据合规。Grammarly事件凸显:AI需平衡创新与授权,未来或需名人数据库或区块链追踪机制。
编者按:AI伦理的转折点
作为AI科技新闻编辑,我认为此案是生成式AI从‘野蛮生长’向‘合规时代’转型的标志。Grammarly的失误提醒开发者:技术炫酷不足以掩盖伦理缺失。用户应警惕AI‘专家’光环背后的黑箱,用户教育和第三方审计亟需加强。长远看,这将推动行业标准制定,如IEEE的AI伦理指南,或许催生‘AI名人授权协议’。
同时,事件也为中文用户敲响警钟。国内工具如文心一言、Kimi需借鉴,避免类似 pitfalls。AI赋能写作是福音,但前提是尊重原创与隐私。
Grammarly股价已受影响,下滑3%。观察者期待法庭判决,将重塑AI内容生成的边界。
(本文约1050字)
本文编译自WIRED
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。