AIが引き起こす妄想の最も厄介な問題

MIT Technology Reviewは、AIが生成する幻覚が人間の偏見と結びつき集団的妄想を引き起こす問題を論じ、特に国防総省のAI軍事利用計画におけるリスクを警告している。

序文:AI時代の妄想の霧

人工知能が急速に発展する現在、最も厄介な謎が静かに浮上している:AIが引き起こす妄想(delusions)は、私たちの現実認識をどのように再構築するのか?これがMIT Technology Reviewのニュースレター『The Algorithm』の今週の核心的な話題である。著者James O'Donnellは当初、AIとイランに関するスクープニュースを執筆する予定だった——先週火曜日、我々は独占的に、国防総省がAI企業に機密データを使用したモデル訓練を許可する計画を策定していることを明らかにした。しかし最終的に、彼はより深い疑問に筆を向けた:AIが生成する幻覚が日常生活に浸透した時、我々はどう対処すべきか?

これは週刊ニュースレターの記事です。このような内容をいち早く受け取りたい方は、こちらでご購読ください

AI妄想はSFの概念ではなく、現在の切迫した現実である。GPTシリーズのような大規模言語モデルは、訓練データの偏りやアルゴリズムの限界により、しばしば虚偽の情報を出力する——業界では「幻覚」(hallucinations)と呼ばれる。しかし、これらの幻覚が人間の偏見と絡み合うと、集団的妄想を引き起こす可能性があり、特に地政学的に敏感な分野において顕著である。

AIとイラン:国防総省の秘密計画

まず、棚上げされたそのニュースを振り返ってみよう。国防総省は大胆な措置を推進している:OpenAIやAnthropicなどのAI企業を招き、軍事情報データを使用してモデルを訓練させるというものだ。これにはイランの核施設の衛星画像、ドローン偵察映像、さらにはソーシャルメディア情報も含まれる。目的は戦場での意思決定におけるAIの精度を向上させることで、例えば敵のミサイル発射をリアルタイムで識別することだ。

背景知識:2022年のChatGPTのブーム以来、米国国防総省はAI軍事応用に数十億ドルを投資してきた。DARPAのAI Nextプログラムがその典型で、目標はAIに膨大なデータを処理させ、人間のアナリストを超えることだ。中東のホットスポットであるイランの核野心は、常に米国情報機関の焦点となっている。2023年、AIはすでにウクライナへのイランのドローン攻撃の軌跡分析に使用され、米軍の防衛システムの最適化を支援した。

しかし、リスクは明白である。AIモデルが訓練中に「幻覚」を起こせば、イランのウラン濃縮活動を「無害な実験」と誤判断したり、民間衛星を核弾頭と誤認したりする可能性がある。これは単なる技術的バグではなく、地政学的災害である。O'Donnellは指摘する:国防総省の計画は機密だが、すでに議会公聴会を引き起こしている:AI企業はデータセキュリティを保証できるか?訓練後のモデルがイランの敵対勢力に漏洩しないか?

AI妄想の本質:幻覚から集団的狂気へ

AI幻覚は孤立した問題ではない。2024年、GoogleのGeminiモデルは過度な「多様性」訓練により、歴史的写真でナチス兵士を黒人として生成するという馬鹿げた画像を作り、公憤を引き起こした。同様の事件が頻発している:Midjourneyが作成した偽ニュース画像がソーシャルメディアで急速に拡散し、株式市場の変動を引き起こした。

業界背景:AI妄想の根源は「ブラックボックス」的性質にある。ニューラルネットワークの数億のパラメータ間の相互作用は説明不可能で、出力が予測不可能になる。OpenAIのCEO Sam Altmanは、GPT-4には依然として20%の幻覚率があることを認めている。Retrieval-Augmented Generation(RAG)などの技術が緩和しているものの、根本的な解決には至っていない。

さらに恐ろしいのは「AI-fueled delusions」:AIが人間の認知バイアスを増幅することだ。心理学者は、これを「確認バイアス」増幅器に例えている。ユーザーが偏見のあるプロンプトを入力すると、AIは強化版の偽ニュースを出力し、エコーチェンバー効果を形成する。2025年の米国大統領選挙では、AIディープフェイク動画がすでに有権者の感情を操作しており、イランのハッカーがAIを使って反米プロパガンダを生成し、TikTokに浸透させているとされる。

最も答えにくい問題:真実はどこにあるのか?

記事の核心的な問い:AI妄想に直面して、最も難しい問題は「どうやって真実性を検証するか?」である。ウォーターマーク技術(GoogleのSynthIDなど)はAI生成コンテンツをマークできるが、回避されやすい。ブロックチェーンによるトレーサビリティは理想的に聞こえるが、プライバシー法により阻害されている。

編集者注:AIテクノロジーニュース編集者として、私はこれが単なる技術的課題ではなく、哲学的危機でもあると考える。AIは鏡のように、人間の脆弱な認知を映し出している。規制は緊急の課題だ:EUのAI法はすでに「高リスク」モデルを分類しており、米国も追随する必要がある。企業は訓練データを透明に開示すべきで、政府は独立した監査を確立すべきだ。しかし最終的には、公衆の識別能力を教育することが王道である。この問題を無視すれば、AIは「デジタルアヘン」となり、グローバルな妄想の流行を引き起こす可能性がある。

将来展望:イノベーションと警戒のバランス

2026年を展望すると、国防総省のAI計画は転換点となるかもしれない。成功すれば、AIは情報戦を再構築する;失敗すれば、米国とイランの誤判断危機を引き起こす可能性がある。O'Donnellは呼びかける:開発者は「妄想検出器」を組み込む必要があり、例えばリアルタイムファクトチェックモジュールなどだ。MITなどの研究機関は「説明可能なAI」(XAI)を研究しており、モデルの出力に信頼スコアを付与している。

同時に、国際協力は不可欠である。中国、イラン、ロシアなどの国もAI軍事利用を追求している:中国華為のPanguモデルはすでに南シナ海の監視に使用されている。グローバルなAI軍備競争において、妄想のリスクは幾何級数的に拡大している。

要するに、AI妄想の最も難しい問題は「信頼の再構築」である。技術の進歩は倫理と並行して進まなければ、災害を避けることができない。

本稿はMIT Technology Reviewより編訳、著者James O'Donnell、日付2026-03-24。