Grammarly、世界中のユーザーに愛されているAI執筆アシスタントが、厄介な集団訴訟の嵐に直面している。問題の発端は物議を醸している「専門家レビュー」(Expert Review)機能で、この機能は有名作家や学者の名義を無断で使用して編集提案を表示していたため、Grammarlyは水曜日に緊急でこの機能を停止した。WIREDの記者Miles Kleeが2026年3月12日に報じたところによると、この事件はクリエイティブ分野におけるAIの倫理的な潜在的問題を露呈しただけでなく、業界全体への警鐘となる可能性がある。
事件の経緯:革新的機能から法的危機へ
Grammarlyの「専門家レビュー」機能は、もともとユーザーの執筆体験を向上させることを目的としていた。AIアルゴリズムを通じて編集提案を生成し、架空の「専門家」の身分で提示する仕組みで、例えばMalcolm Gladwellのようなベストセラー作家やNoam Chomskyのような学術界の重鎮からの提案として表示されていた。これらの提案には文法の最適化、スタイルの調整、コンテンツの再構成などが含まれ、一見高度で専門的に見えるが、当事者の許可は一切得ていなかった。
「この機能は有名人の名義で提案を表示していたが、彼らの同意を得ていなかった。」——WIRED報道
水曜日、Grammarlyは公式にこの機能の停止を発表し、「技術的なミス」として謝罪した。しかし時すでに遅く、影響を受けた複数の作家や学者が共同で集団訴訟を提起し、Grammarlyが肖像権侵害、虚偽広告、不当利得を行ったと告発している。原告側弁護士によると、これは許可なく有名人の肖像を商業的プロモーションに使用することに類似しており、米国連邦取引委員会(FTC)の規定および複数州の消費者保護法に違反する可能性がある。
機能分析:AIはいかにして「専門家になりすます」のか
Grammarlyの発展を振り返ると、同社は2009年に設立され、シンプルなスペルチェックツールから万能なAI執筆プラットフォームへと進化してきた。2023年以降、GPTモデルなどの生成AIの台頭に伴い、Grammarlyは「専門家レビュー」を含む複数の高度な機能を導入した。ユーザーがテキストをアップロードすると、AIは一般的な提案だけでなく、特定の専門家の視点を模倣し、例えば「Stephen Kingの物語技法によれば、あなたの冒頭部分はより緊密にする必要がある」といった提案を行う。
技術的な実装においては、これはGrammarlyの独自の大規模言語モデル(LLM)に依存しており、訓練データには膨大な公開テキストが含まれている。しかし問題は、AIが生成する「専門家の声」が実際の引用ではなく、公開情報に基づいて推論された合成出力であることだ。これは「ディープフェイク」的な論争を引き起こしている:ユーザーは専門家の真の洞察だと誤解し、ツールへの信頼を高めてしまう。
法律と倫理の二重の挑戦
集団訴訟の核心は「同意なきアイデンティティの使用」にある。米国では、有名人の肖像権(Right of Publicity)は厳格に保護されており、カリフォルニア州民法典第3344条などの州法は、他人の氏名や肖像の商業利用を明確に禁止している。原告側はランハム法(Lanham Act)も援用し、Grammarlyの行為が虚偽の推薦を構成し、消費者を誤導する可能性があると主張している。
Grammarlyは、この機能は純粋に「クリエイティブなデモンストレーション」であり、実際の推薦ではないと反論し、すべての関連コンテンツを削除したと述べている。同社の広報担当者は「私たちはAIの透明性に取り組んでおり、この件は私たちのコンプライアンス体制の改善を促進するでしょう」と述べた。しかし法律専門家は、この訴訟が数年間続く可能性があり、賠償金額は数百万ドルに達する可能性があると予測している。
業界背景:AI執筆ツールのプライバシーのジレンマ
これは孤立した事例ではない。AI執筆分野は急速に拡大しており、市場規模は2026年に100億ドルを超えると予測されている。QuillBotやJasper AIなどの競合他社も類似の「スマート提案」機能を導入しているが、実在の専門家を模倣するものは少ない。2024年、OpenAIは訓練データの著作権侵害で『ニューヨーク・タイムズ』から訴えられ、2025年にはAnthropicのClaudeモデルが有名人の音声クローン論争に巻き込まれた。
より広い観点では、EUの『AI法』(AI Act)はすでにこのような「高リスクAI」を規制対象に含め、生成コンテンツの出所を明確に開示することを要求している。中国の『生成式人工知能サービス管理暫定弁法』も同様にデータコンプライアンスを強調している。Grammarly事件は、AIがイノベーションと許可のバランスを取る必要があることを浮き彫りにしており、将来的には有名人データベースやブロックチェーン追跡メカニズムが必要になるかもしれない。
編集者注:AI倫理の転換点
AI技術ニュース編集者として、私はこのケースが生成AIの「野放図な成長」から「コンプライアンス時代」への転換の象徴だと考えている。Grammarlyの失敗は開発者に対する警告だ:技術の派手さは倫理の欠如を覆い隠すには不十分である。ユーザーはAI「専門家」の光輪の背後にあるブラックボックスに警戒すべきであり、ユーザー教育と第三者監査の強化が急務である。長期的には、これは業界標準の策定を推進し、IEEEのAI倫理ガイドラインなど、あるいは「AI有名人ライセンス契約」の誕生を促すかもしれない。
同時に、この事件は中国語圏のユーザーにも警鐘を鳴らしている。文心一言やKimiなどの国内ツールは教訓を得て、同様の落とし穴を避ける必要がある。AIによる執筆支援は福音だが、前提は独創性とプライバシーの尊重である。
Grammarlyの株価はすでに影響を受け、3%下落した。観察者たちは法廷判決を待っており、それがAIコンテンツ生成の境界を再定義することになるだろう。
(本文約1050字)
本文はWIREDから編集翻訳
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接