AIによる深度偽造女優カスタム市場の暗黒内幕を暴く

生成AIの急速な発展に伴い、Civitaiというオンラインプラットフォームが注目を集めている。スタンフォード大学とインディアナ大学の研究者による最新の分析が、AI技術の二面性を明らかにした。

序論:AI市場の隠れた一角

生成AIの急速な発展の中で、Civitaiというオンラインプラットフォームが密かに注目を集めています。このプラットフォームは単なるAIモデルの共有コミュニティではなく、カスタム深度偽造コンテンツのブラックマーケットとしても機能しています。著名なベンチャーキャピタル会社Andreessen Horowitzが投資しているCivitaiは、ユーザーが実在する女性有名人の深度偽造画像を生成するための指令ファイルを購入できることが明らかにされています。一部のファイルは、プラットフォームで明確に禁止されているポルノコンテンツに最適化されています。この問題は、スタンフォード大学とインディアナ大学の研究者による最新の分析から浮き彫りになりました。

「Civitaiは、AI生成コンテンツの売買を行うオンライン市場で、ベンチャーキャピタル会社Andreessen Horowitzの支援を受けていますが、ユーザーが有名人の深度偽造カスタム指令ファイルを購入できるようにしています。これらのファイルのいくつかは、禁じられたポルノ画像を作成するために設計されています。」—原文要約

Civitaiプラットフォームの台頭とメカニズム

Civitaiは2022年頃に設立され、Stable DiffusionなどのオープンソースAI画像生成モデルの主要な共有プラットフォームへと急成長しました。ユーザーはLoRA(Low-Rank Adaptation)アダプターのような「モデルファイル」をアップロードおよびダウンロードできます。これらのファイルは少量のトレーニングデータを使用して、AIが特定のスタイルや人物の画像を生成することを可能にします。プラットフォームは、非自発的なポルノグラフィー(non-consensual pornography)や有名人の深度偽造を禁止する厳しいコンテンツ審査ポリシーを主張していますが、現実は全く異なります。

研究によると、Civitaiには実在する女性をターゲットにした数千もの「カスタムモデル」が溢れています。これらのモデルは、テイラー・スウィフトやエマ・ワトソンのような有名人を基にしており、ユーザーは数ドルで「指令ファイル」(プロンプトファイル)をダウンロードし、簡単なテキストを入力するだけでリアルな画像を生成できます。プラットフォームは、いいね、ダウンロード数、有料ウォールを通じて収益を上げており、月間アクティブユーザー数は100万人を超え、モデルの総ダウンロード数は数十億回に達しています。Andreessen Horowitzの投資はさらに法的な正当性を与えるものでしたが、同時に疑問も引き起こしました:ベンチャーキャピタルは潜在的な悪用を間接的に助長しているのではないか?

研究が明かす:禁令の裏の抜け道

スタンフォードとインディアナ大学の研究チームは、Civitaiを系統的にクロールし分析を行い、人気のあるモデルの20%以上がプラットフォームのルールに違反している疑いがあることを発見しました。具体的には、一部のLoRAファイルは「隠れた抜け道」として設計されており、一見中立な画像をアップロードし、実際にはプロンプトを最適化して露骨なポルノコンテンツを生成します。例えば、「Celebrity X」というモデルは「アートポートレート」として公式に説明されていますが、ユーザーのフィードバックによれば、目標とする女性の顔を正確に再現し、成人向けの要素を追加します。

研究はまた、プラットフォームのアルゴリズムが高いインタラクションのあるモデルを好むため、違反コンテンツが上位にランクされることを指摘しました。著者のJames O'Donnellは、報告の中でこの「カスタム深度偽造」の障壁が非常に低いことを強調しています。普通のユーザーはプログラミングスキルを必要とせず、Stable Diffusion WebUIを使ってローカルで実行し、数分で高解像度の偽造画像を生成できます。これは2023年以降急増している深度偽造事件、例えばテイラー・スウィフトのAIヌード写真事件と呼応しています。これにより、Xプラットフォームは一時的に崩壊しました。

業界背景:生成AIの深度偽造危機

深度偽造技術は2017年のDeepFaceLabに由来しますが、Stable Diffusionのような生成AIの台頭(2022年11月にオープンソース化された)により、障壁が完全に下がりました。Hugging FaceやCivitaiといったプラットフォームはモデルの温床となり、LoRA技術が問題をさらに拡大しました:わずか10-20枚のターゲット写真で、パーソナライズされたモデルを訓練することができます。データによれば、2024年には全世界の深度偽造動画の90%がポルノコンテンツであり、被害者の多くは女性有名人や一般人です。

規制の遅れが主要な問題点です。アメリカのカリフォルニア州は2024年にAB 1831法案を通過させ、非自発的な深度偽造ポルノを禁止していますが、実行は難しいです。欧州連合のAI法案はこのようなものを「高リスク」と見なし、ウォーターマークの追跡を要求しています。中国は《生成式人工智能サービス管理暫行办法》を通じてコンテンツ審査を要求しています。しかし、プラットフォームの自己チェックは不十分で、CivitaiのケースはオープンソースAIエコシステムの脆弱性を露呈しています:モデルが一旦拡散すると、制御が難しくなります。

編集者の注釈:倫理的境界と未来への警告

AI技術ニュースの編集者として、Civitai事件は単なる技術の乱用にとどまらず、倫理とビジネスの衝突でもあります。Andreessen Horowitzのようなベンチャーキャピタルは投資に対する責任を見直すべきであり、プラットフォームはブロックチェーンウォーターマークやフェデレーションラーニングの審査を導入する必要があります。長期的には、AIには「倫理的整合性」メカニズムを組み込む必要があります。例えば、Anthropicの憲法AIのように。しかし、より緊急なのは、深度偽造が「娯楽」から「武器化」に滑り込むのを防ぐための世界的な立法協力です。これは私たちに対し、技術の進歩がプライバシーの犠牲を伴ってはならないことを思い起こさせます。

2026年を見据えると、SoraのようなビデオAIの成熟により、深度偽造は静止画から動的な偽造ビデオへと拡大していくでしょう。業界は自己反省が必要です。さもなければ、規制の鉄拳が迫っているでしょう。

(本文約1050字)

本文はMIT Technology Reviewから翻訳されました。

```