AIがサイバー犯罪をより簡単にし、今後さらに深刻化する恐れ

AIツールの普及により、高度な技術スキルを持たない犯罪者でも複雑なマルウェアやフィッシング攻撃を実行できるようになり、AIを悪用したサイバー犯罪が急増している。

アントン・チェレパノフ(Anton Cherepanov)は常にサイバー世界の異常に注目している。ベテランのサイバーセキュリティ研究者として、彼はVirusTotal——セキュリティ専門家に愛用されている、ユーザーがアップロードした疑わしいファイルを分析し、潜在的なウイルスやその他のマルウェアを検出するプラットフォーム——を頻繁に閲覧している。昨年8月末、彼はそのようなファイルを発見した。表面的には普通の文書のように見えたが、詳しく分析すると、サイバー犯罪におけるAIの驚くべき可能性が明らかになった。

偶然発見されたAIマルウェア

このファイルは一見無害な拡張子を持っていたが、VirusTotalのスキャンでは高度に複雑なコードが含まれていることが示された。チェレパノフはすぐに、これが従来のハッカーが手作業で書いたマルウェアではなく、AIモデルを利用して生成されたものだと気づいた。大規模言語モデル(LLM)などのAIツール、例えばオープンソースのLlamaやCodeLlamaは、簡単なプロンプトに基づいて実行可能な悪意のあるコードを自動生成できる。これにより犯罪者の技術的ハードルが大幅に下がった——かつて熟練プログラマーが数週間かけて行っていた作業が、今ではチャット形式の指示で数分で完了する。

「それはAIが生成した実験のように見えたが、その破壊力は軽視できない。」——アントン・チェレパノフ

MIT Technology Reviewの報道によると、この現象は孤立した事例ではない。2023年以降、ハッカーフォーラムにはAI支援ツールの取引があふれており、フィッシングメールの生成からディープフェイク動画の偽造まで、AIは犯罪エコシステムの中核的な推進力となっている。VirusTotalのデータによると、2025年のAI関連の悪意のあるサンプル提出量は300%急増し、従来のトロイの木馬ウイルスをはるかに上回っている。

AIがサイバー犯罪の状況をどのように再構築しているか

従来のサイバー犯罪は熟練したハッカースキルに依存していたが、AIの出現がこのモデルを完全に覆した。まず、自動化攻撃が効率的になった。AIは特定のターゲット向けのフィッシングメールをリアルタイムで生成し、自然言語処理(NLP)を利用して被害者の通信スタイルを模倣し、クリック率を50%以上向上させることができる。次に、マルウェアの変異がよりインテリジェントになった。従来のウイルスはアンチウイルスソフトウェアに識別されやすかったが、AI生成コードは多様性と適応性を持ち、シグネチャ検出を回避し、強化学習(RL)を通じて自己最適化することさえできる。

業界背景を見ると、ChatGPTが爆発的な人気を博して以来、オープンソースAIモデルの氾濫がこの傾向を加速させている。Hugging Faceなどのプラットフォームには無料でダウンロードできるコード生成モデルが数千個あり、ハッカーは微調整するだけで武器化できる。例えば、2024年のWormGPT——犯罪専用に設計されたAI変種——は大規模なランサムウェア攻撃に使用され、被害企業の損失は10億ドルを超えた。セキュリティ企業Kasperskyは、AI駆動の攻撃がサイバー犯罪の25%を占めていると報告している。

実例:フィッシングからディープフェイク攻撃まで

典型的な事例は2025年の「AIゴースト作戦」である。ハッカーはStable Diffusionを使用してリアルな偽動画を生成し、企業幹部になりすまして従業員に送金を誘導し、数百万ドルの窃取に成功した。もう一つの例はAI強化DDoS攻撃で、大量の変異スクリプトを生成して複数の金融機関のサーバーを麻痺させた。これらの攻撃の共通点は:AIがコストを数万ドルから数ドルのクラウドGPUレンタル費用まで大幅に削減したことだ。

専門家は、AIがソーシャルエンジニアリング攻撃も助長していると警告している。ElevenLabsなどの音声合成ツールは誰の声でもクローンでき、電話詐欺に使用される。2026年初頭、米国連邦取引委員会(FTC)が記録したAI詐欺事件は前年比で倍増した。

将来のリスク:制御不能なAI犯罪の波

記事の著者リアノン・ウィリアムズは、現状は氷山の一角に過ぎないと指摘している。マルチモーダルAI(GPT-4oなど)の普及に伴い、犯罪は自動化、インテリジェント化の方向に進化するだろう。想像してみてほしい:自律的なAIエージェントが独立してターゲットを偵察し、攻撃を実行し、証拠を破壊できる。これは「AI軍拡競争」を引き起こし、ハッカーと防御側がモデル能力を競い合うかもしれない。

補足背景:EU AI法などの国際標準は高リスクAIを規制の重点としているが、実施は遅れている。中国の「生成式人工知能サービス管理暫定弁法」も安全評価を強調しているが、地下のオープンソースコミュニティをカバーすることは困難だ。グローバルサイバーセキュリティ市場は2028年に5000億ドルに達すると予測されているが、AI脅威の増加速度はそれを上回っている。

編集者注:AI犯罪に対する防御の緊急経路

AI科学技術ニュース編集者として、我々は純粋な技術的防御だけではもはや不十分だと考えている。多面的なアプローチが必要だ:第一にウォーターマークと追跡、AI出力に不可視のマークを埋め込む;第二に国際協力、VirusTotal型の情報プラットフォームの共有;第三に倫理教育、モデルの悪用を源から制限する。同時に、企業はGANベースの対抗検出などAI駆動のセキュリティツールに投資すべきだ。将来、AIは犯罪の共犯者であるだけでなく、最良の防御盾でもある——前提は人類が主導権を握ることだ。

要するに、AIの両刃の剣効果はすでに明らかであり、サイバー犯罪は「手作業時代」から「インテリジェント時代」へと移行している。早期に行動しなければ、災害を避けることはできない。

本記事はMIT Technology Reviewから編集、著者Rhiannon Williams、2026年2月12日。