モデルたちが争ってAI詐欺の顔となる

数十のTelegramチャンネルが「AI顔モデル」を高額報酬で募集し、応募した女性たちの画像がディープフェイク詐欺に悪用されている。AI技術の急速な発展により、詐欺被害は世界規模で拡大している。

デジタル時代において、AI技術の両刃の剣としての効果がますます顕著になっている。WIREDの記者Matt Burgessが2026年3月16日に報じた衝撃的な現象によると、数十のTelegramチャンネルが公然と「AI顔モデル」を募集している。これらの広告は高額な報酬を約束し、個人の写真と動画を提供するだけでよいという。採用されるのは多くが女性で、彼女たちの画像はディープフェイク(deepfake)コンテンツの生成に使用され、最終的には詐欺集団に利用されて被害者を破産に追い込んでいる。

Telegram:詐欺募集の温床

プライバシーを重視するインスタントメッセージングアプリであるTelegramは、サイバー犯罪者の天国となっている。WIREDが審査したチャンネルは数十に及び、広告内容は直接的で魅力的だ:「AI顔モデル募集!高解像度の自撮りをアップロードするだけで、1枚につき50ドルの報酬!」これらのチャンネルは活発で参加者も多く、多くの広告には実例写真が付属し、実在の人物の顔とAIを合成する方法を示している。

「私たちは自然で魅力的な顔を必要としており、AI生成動画に使用します。女性優先、年収は数万ドルに達する可能性があります。」——典型的な募集広告

これらの「モデル」は多くの場合状況を知らないか、虚偽の約束に騙されている。彼女たちはゲーム、広告、またはバーチャルアイドル用の素材を提供していると思っているが、実際には写真が詐欺集団の手に渡っている。Telegramのエンドツーエンド暗号化と匿名性により、監督管理は極めて困難だ。

AI詐欺の仕組み

詐欺集団はStable DiffusionやMidjourneyなどのオープンソースAIツールを利用して、簡単にリアルな偽の顔を生成している。実在の人物の写真を入手すると、フェイススワップ技術を使ってビデオ通話やライブ配信を作成し、外国の美女、富豪の相続人、投資専門家になりすます。一般的な詐欺にはロマンス詐欺(romance scams)や暗号通貨投資の罠が含まれる。

FBIのデータによると、2025年のアメリカでのロマンス詐欺による損失は10億ドルを超え、そのうちAI生成コンテンツが占める割合はすでに30%に達している。被害者の多くは中高年で、彼らは出会い系アプリやSNSで「完璧な相手」に出会い、その後送金を促される。

被害者の物語:甘い関係から破産へ

「ジョン」という仮名の被害者が経験を共有した:彼はTelegramで「アンナ」と知り合った。アンナは金髪の美女で、ヨーロッパのモデルだと称していた。数ヶ月の交流後、「アンナ」は「ビジネスの資金繰り」を理由に5万ドルを要求した。ジョンが送金すると、「アンナ」は姿を消した。その後、彼は動画の顔がAI合成で、ある「AIモデル」の写真が元になっていることを発見した。

類似の事例は後を絶たない。中国の被害者も頻繁に巻き込まれており、公安部の報告によると、国境を越えたAI詐欺の被害額は億元を超えている。詐欺チェーンはグローバル化している:写真はアジアのモデルから取得し、AI合成はアメリカのサーバーで行われ、被害者は世界中に広がっている。

AIディープフェイク技術の急速な発展

業界の背景を振り返ると、AI顔生成技術は2017年のDeepFaceLab登場以来、飛躍的に進歩している。2024年、OpenAIのSoraやRunwayのGen-2などの動画生成モデルにより、deepfakeは静止画像から流暢な動画へとアップグレードした。コストは数ドルにまで下がり、参入障壁はほぼゼロになった。

同時に、ブロックチェーンとNFTのブームが「デジタル人間」経済を生み出し、バーチャル配信者である李佳琦のAI分身のような正当な応用が詐欺の技術的基盤を提供している。MetaとGoogleは検出ツールの研究開発に数十億ドルを投資しているが、詐欺師は常に回避方法を見つけている。

専門家の見解:規制は待ったなし

マサチューセッツ工科大学のAI倫理専門家Sarah Zhang氏は述べる:「これらの募集は本質的にデジタル労働搾取です。プラットフォームはAIコンテンツへの透かし義務化と異常なトラフィックの追跡が必要です。」EUのAI法はすでに高リスクのdeepfakeを重点規制対象としており、アメリカのFTCもTelegramの調査を開始している。

「AI詐欺は技術的問題ではなく、人間の弱点を増幅するものです。」——Sarah Zhang教授

Telegramの創設者Pavel Durovは犯罪対策を約束しているが、実行力は疑問視されている。専門家は、ユーザーに身元確認を行い、Hive Moderationなどのアンチdeepfakeアプリを使用することを呼びかけている。

編集者注:AI詐欺の波から身を守る方法

AIテクノロジーニュースの編集者として、私たちはこの傾向を憂慮している。AIは人類の福祉のためにあるべきだが、犯罪ツールとして悪用されている。推奨事項:1)不明な出所からの写真リクエストを拒否する;2)ビデオ通話時は口の動きの同期と背景の異常に注意する;3)投資前にプラットフォームの信頼性を検証する;4)二要素認証を有効にする。将来的には、ブロックチェーン身元認証が標準となるかもしれない。技術の進歩には倫理的な自律が伴わなければ、デジタルパンドラの箱を避けることはできない。

本記事は約1100字、WIREDからの編訳。