Xプラットフォームでイラン戦争の偽AI生成コンテンツが氾濫

Xプラットフォーム(旧Twitter)でイラン戦争に関する偽のAI生成コンテンツが拡散し、同社のAIツールGrokが誤った検証を行い、さらに偽情報の拡散を助長している問題が発覚した。

現在の情報爆発の時代において、ソーシャルメディアは世界の世論の風向計となっている。しかし、Xプラットフォーム(旧Twitter)で最近深刻な問題が発覚した:イラン戦争に関する偽のAI生成コンテンツがウイルスのように蔓延している。WIREDの記者David Gilbertは2026年3月11日の報道で、X社のAIツールGrokがイラン紛争関連の動画を処理する際、検証に失敗を繰り返し、さらに自らAI画像を生成・共有することで、フェイクニュースの拡散を助長していることを指摘した。

Grokの検証機能不全:イラン動画から見るAIの弱点

Grokはイーロン・マスク傘下のxAI社が開発したチャットボットで、リアルタイム情報と画像生成サービスの提供を目的としている。本来はファクトチェックの利器となるべきものだが、イラン戦争報道で頻繁に機能不全を起こしている。報道によると、Xで拡散された複数の動画は、イランのミサイルが米軍基地やイスラエルの標的を攻撃する様子を映したと主張していたが、NewsGuardなどの独立したファクトチェック機関の検証により、これらの動画の多くは古い素材やAI合成であることが判明した。Grokはその虚偽性を示すマークを付けないばかりか、ユーザーの問い合わせに対して「動画は本物に見える」と回答し、さらにAI生成の類似戦争シーン画像を添付した。

「Grokの回答により偽動画は追加の信頼性を獲得し、ユーザーはこれを公式認証と誤解した」——David Gilbert、WIRED

例えば、いわゆる「イランのドローン群がドバイを攻撃」する動画は、実際には2023年のウクライナ紛争の保存映像だった。Grokが画像を生成する際、Midjourney風の戦争描写を使用し、現実と虚構の境界線をさらに曖昧にした。これは孤立した例ではない:2025年末にイラン戦争が勃発して以来、X上の関連偽コンテンツは10万件を超え、閲覧数は数億に達している。

AI生成コンテンツの両刃の剣:背景とリスク

AI発展史を振り返ると、DALL·E、Stable Diffusionなどの生成AIは2022年から急速に普及し、秒単位でリアルな画像や動画を生成できるようになった。2024年にはOpenAIのSora動画モデルが登場し、deepfakeの敷居をさらに下げた。地政学的紛争において、この技術は情報戦の武器として使用されている。イラン戦争の背景は複雑だ:イスラエル・イラン代理人紛争のエスカレーションに起因し、米軍介入後は多方面の混戦に発展した。ソーシャルプラットフォームは戦場となり、ロシア、イラン支持者が偽情報を拡散していると指摘されている。

Xプラットフォームのアルゴリズムは高エンゲージメントコンテンツを優遇し、偽AI動画は視覚的インパクトが強いため、瞬く間にトレンド入りする。統合ツールとしてのGrokは、本来ユーザー体験を向上させることを意図していたが、トレーニングデータの偏り(Xの大量だが低品質な投稿に過度に依存)とリアルタイムファクトデータベースの欠如により、判断の精度が低下した。これに対し、MetaのLlama GuardやGoogleのGeminiはより厳格な審査層を持つが、Grokは「最大の真実追求」を強調し、結果的に逆効果となった。

編集者注:AI審査には人間とテクノロジーのダブル保証が急務

AIテクノロジーニュース編集者として、我々はGrok事件が現在の生成AIの核心的な問題点を露呈したと考える:因果推論と多元検証能力の欠如。単純に確率モデルに依存するだけでは、動的な戦争シーンに対応できない。xAIにはClaimBusterのような第三者ファクトチェックAPIの導入と、AI画像へのウォーターマーク(C2PA標準)の義務化を提案する。同時に、プラットフォームはTikTokのAIラベルメカニズムを参考に、生成コンテンツに対して一律にマーキングすべきだ。

より広い観点から、この事件は警鐘を鳴らしている:2026年のAI規制、例えばEU AI Actは高リスクアプリケーションの審査を義務化しているが、米国は遅れを取っている。Xがアップグレードしなければ、フェイクニュースの温床となり、社会の分断を深刻化させる恐れがある。マスクはかつてGrokを「偏見なし」と約束したが、現実は技術の中立性には制度的な後ろ盾が必要であることを証明した。

業界の対応と将来の展望

複数の企業がすでに行動を起こしている:Adobe Fireflyはコンテンツ来歴を内蔵し、MicrosoftのDesignerは敏感な戦争画像の生成を拒否している。Xは現在Grok 2.0を最適化中で、第2四半期に強化された検証モジュールを搭載予定と回答した。専門家は2027年までにブロックチェーンウォーターマークが標準装備となり、コンテンツの追跡可能性を確保すると予測している。

ユーザーも警戒が必要だ:AIコンテンツに直面した際は、SnopesやFactCheck.orgなどを使用して複数のソースを確認すべきだ。イラン戦争のフェイクニュースは世論を誤導するだけでなく、外交政策に影響を与える可能性もある。Grokの失敗は我々に、AIはツールであり、万能な神託ではないことを思い出させる。

(本文約1050字)

本記事はWIREDから編訳、著者David Gilbert、2026年3月11日付。