事件勃発:NPR司会者David GreeneがGoogleに対して訴訟を提起
2026年2月16日、TechCrunchの報道によると、アメリカ国家公共ラジオ(NPR)の『Morning Edition』番組のベテラン司会者David Greene氏が、正式にGoogleに対して訴訟を提起した。同氏は、GoogleのAIツールNotebookLMの男性ポッドキャスト音声が自身の声の特徴に基づいて生成されていると告発している。この事件は急速にテクノロジー界とメディア界の幅広い注目を集め、AI音声合成技術が著名人の声を無許可で使用する際の法的リスクを浮き彫りにした。
NPR『Morning Edition』の長年の司会者であるDavid Greeneは、同社のNotebookLMツールの男性ポッドキャスト音声が本人に基づいていると主張し、Googleを提訴している。(原文抜粋)
David Greene氏はNPRで15年以上勤務し、その独特な中低音、明瞭な話し方、プロフェッショナルなニュース放送スタイルで知られている。2021年にNPRを離れ、他のメディアプロジェクトに転向したが、その声は多くのリスナーの記憶に残る象徴となっている。今回の訴訟の核心は、GoogleのNotebookLMの「ポッドキャスト生成」機能が、ユーザーがアップロードしたノートや文書を二人の対話形式の音声ポッドキャストに変換でき、その中の一人の司会者の声がGreene氏と高度に類似していることだ。
NotebookLM:GoogleのAIノート革命ツール
NotebookLMは、Googleが2023年に発表した実験的AIツールで、Gemini大規模言語モデルに基づき、ユーザーのノート管理とインタラクティブコンテンツ生成を支援することを目的としている。そのキラー機能の一つが「Audio Overview」(音声概要)で、複雑な文書を自動的に生き生きとした放送に変換し、男性ポッドキャスト司会者スタイルを含む複数の音声オプションをサポートしている。ユーザーはPDF、ウェブページ、テキストをアップロードするだけで、AIが15〜20分のポッドキャストディスカッションを生成し、まるで二人のプロフェッショナルな司会者のように聞こえる。
この機能は急速に人気を博し、特に学生、研究者、コンテンツクリエイターの間で支持されている。Googleは音声は合成生成されたもので、実際の録音ではないと主張しているが、Greene氏の弁護団は音声スペクトル分析、イントネーションマッチング、時間的特徴を通じて、類似度が95%以上に達する証拠を提示している。Googleは、すべての音声はAIのオリジナルで、いかなる実在の人物の録音も使用していないと回答したが、訓練データに公開ポッドキャスト音声が含まれている可能性については否定していない。
AI音声合成の業界背景と論争
AI音声合成技術は、WaveNet、Tacotronなどのモデルと大量の公開音声データセットのおかげで急速に発展している。GoogleのNotebookLM、OpenAIのGPT-4o音声モード、およびElevenLabsなどのスタートアップのクローンサービスは、「ゼロショット音声合成」を現実のものにした―わずか数秒の録音で、任意のテキストの個人化された声を生成できる。
しかし、この技術は倫理的および法的課題ももたらしている。2024年、ハリウッド女優のScarlett Johansson氏は、OpenAIの「Sky」音声が自分に似ていると公に非難し、後者は削除を余儀なくされた。この事件は和解したが、AIトレーニングデータにおける有名人の声のグレーゾーンを露呈した。EUのAI法は「高リスクAIシステム」を規制対象に含め、米国カリフォルニア州もAB 1836法案を可決し、同意なしに有名人の声をデジタル複製することを禁止した。
ニュース分野では、NPRなどの伝統的メディアがAIポッドキャストの衝撃に直面している。NotebookLMのポッドキャスト機能は便利だが、プロフェッショナルな司会者の価値を希薄化する可能性がある。Greene氏の訴訟は画期的なものとなり、「音声肖像権」立法を推進する可能性がある。現在、米国著作権法は主に録音自体を保護し、音声の特徴は保護していないが、人格権とプライバシー権の訴訟が新たな戦場となっている。
編集者注:AI音声論争の深い警告
AIテクノロジーニュース編集者として、私はGreene対Google訴訟が単なる個人の権利保護ではなく、業界への警鐘であると考える。NotebookLMのようなAIツールは生産性を大幅に向上させたが、データ倫理を無視すれば危機を招くことになる。Googleなどの大手企業は、トレーニングデータのソースを積極的に開示し、「音声同意契約」メカニズムを導入すべきだ。同時に、ユーザーはAI生成コンテンツの真実性に警戒し、ディープフェイク音声が世論を誤導することを避ける必要がある。
将来を展望すると、この事件は世界的なAI規制の統一を促進し、音声モデルに「合成識別」の表示を要求する可能性がある。クリエイターにとって、これは機会である:AIツールと組み合わせて個人化されたコンテンツを作成し、取って代わられるのではない。Googleが敗訴すれば、高額な賠償金を支払い、NotebookLMの音声ライブラリ設計を再構築することになるだろう。
潜在的影響と今後の観察
訴訟地はカリフォルニア州連邦裁判所で、審理には数ヶ月かかると予想される。Googleは「フェアユース」で弁護し、公開ポッドキャスト音声は公正利用に属すると主張する可能性がある。NPRは正式な態度を表明していないが、内部関係者はGreene氏を支持し、AIがメディアエコシステムを侵食することを懸念していると明かしている。
類似事件が頻発している:2025年、BBCの司会者がTikTok AIナレーションを提訴;国内では、腾讯音楽と字節跳動がAI歌手の声の紛争で法廷で対決している。これらの事例が合わさって、「AI音声著作権フレームワーク」の形成を推進している。投資家の注目は、GoogleのSynthIDのような音声透かし技術に向けられており、見えないマークを埋め込んでソースを追跡できる。
NotebookLMのユーザー数はすでに1000万を超えており、この事件はその商業化を一時的に遅らせる可能性がある。Google DeepMindチームはモデルを最適化し、有名人との類似性を避けようとしているが、根本的な解決には多方面の協力が必要だ:データクリーニング、ライセンス契約、透明な監査。
要するに、David Greene氏の勇敢な訴訟は、個人の権益を守るだけでなく、AI時代のための境界線を引いている。技術の進歩はプライバシーを犠牲にすべきではない。
本記事はTechCrunchから編集翻訳、著者Anthony Ha、原文日付2026-02-16。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接