OpenAI、高度なセキュリティモードを導入し、高リスクアカウントを保護

OpenAIは、ChatGPTやCodexアカウントがフィッシング攻撃のターゲットになることを懸念するユーザー向けに「高度なアカウントセキュリティ」機能を導入しました。これはユーザーの安全性を高める重要なステップです。

OpenAIは近日、「高度なアカウントセキュリティ」と名付けられた新機能を正式に導入しました。この機能は、ChatGPTやCodexアカウントがネットワークフィッシング攻撃のターゲットになることを懸念するユーザー向けに設計されています。この取り組みは、AIサービスプロバイダーがユーザーの安全性の分野で重要な一歩を踏み出したことを示しており、特にAIツールが普及し、ハッカー攻撃の新たな標的となっている現在の状況において重要です。

高度なセキュリティモード:どのように機能するのか?

OpenAIによると、高度なアカウントセキュリティモードは、多要素認証(MFA)と行動分析技術を組み合わせています。ユーザーがこの機能を有効にすると、システムは追加の身元確認ステップを要求します。たとえば、登録されたセキュリティキーや生体認証技術を使用した二次確認が必要です。同時に、AI駆動の行動分析がアカウントのログインパターンを継続的に監視し、異常な活動(不明な場所やデバイスからのログインなど)を検出すると、直ちに警報を発し、アカウントを一時的にロックします。

OpenAIのセキュリティチームは、「記者、活動家、研究者などのユーザーを狙ったターゲット型フィッシング攻撃が増加していることを観察しており、高度なセキュリティモードはこれらの高リスクアカウント向けに特別に設計されています。」と述べています。

この機能はデフォルトで有効になっているわけではなく、ユーザーがアカウント設定で自ら有効にする必要があります。OpenAIは、機密データを持つユーザーやAPIインターフェースを頻繁に使用するユーザーに対して、このモードを早急に有効にすることを推奨しています。

業界背景:AIアカウントがハッカーの新たなターゲットに

ChatGPTやCodexなどのAIツールが商業および開発分野で広く使用されるようになったことで、ハッカーはこれらのアカウントに目を向け始めました。昨年、多くのAIアカウントに対するフィッシング攻撃が明るみに出ており、攻撃者は偽のログインページを作成したり、悪意のあるリンクを送信したりしてAPIキーを盗み、AIサービスを悪用したりユーザーデータを盗んだりしています。セキュリティ研究会社のRecorded Futureの報告によれば、2025年にはAI関連のフィッシング攻撃の数が300%増加するとされています。

OpenAIが今回発表した高度なセキュリティモードは、このトレンドに対する対応策です。同社は以前、基本的な二段階認証を提供していましたが、新機能は検出能力と応答能力において質的な飛躍を遂げています。たとえば、行動分析システムは「非典型的」な使用パターンを特定することができ、たとえ攻撃者がパスワードや確認コードを取得したとしても、その行動がユーザーの履歴と一致しない場合、システムはアクセスを阻止します。

編集者注:セキュリティと利便性の永遠の闘い

OpenAIの高度なセキュリティモードは、ユーザーにより強力な保護を提供する一方で、ユーザーエクスペリエンスに関する議論も引き起こしています。多要素認証の追加ステップは、一部のユーザーにとって煩雑に感じられるかもしれず、特に日常的にAIツールを頻繁に使用する開発者やクリエイティブワーカーにとってはそうです。しかし、AIのセキュリティ脅威が増大している今日、このようなトレードオフは必要かもしれません。あるセキュリティ専門家は、「デジタル時代において、ログイン時間を少しでも増やすことが、壊滅的なデータ漏洩を防ぐことになるかもしれない」と言っています。

注目すべきは、OpenAIがこの機能を無料ユーザーに提供するかどうかは明らかにしていない点です。現在、高度なセキュリティモードはChatGPT PlusおよびTeamサブスクリプションユーザーにのみ提供されており、企業版ユーザーはより多くのカスタマイズオプションを享受しています。将来的に、AI技術のさらなる普及に伴い、同様のセキュリティメカニズムが業界標準となる可能性があります。

本文はWIREDから翻訳されています