OpenAI近日正式推出了一项名为“高级账户安全”的新功能,专门为那些担心其ChatGPT或Codex账户可能成为网络钓鱼攻击目标的用户设计。这一举措标志着AI服务提供商在用户安全领域迈出了重要一步,尤其是在当前AI工具日益普及、成为黑客攻击新靶点的背景下。
高级安全模式:如何运作?
据OpenAI官方介绍,高级账户安全模式结合了多因素认证(MFA)和行为分析技术。用户启用后,系统将要求额外的身份验证步骤,例如通过绑定的安全密钥或生物识别技术进行二次确认。同时,AI驱动的行为分析会持续监控账户登录模式,一旦检测到异常活动(如从陌生地点或设备登录),将立即触发警报或临时锁定账户。
OpenAI安全团队表示:“我们观察到针对记者、活动人士和研究人员等用户的定向钓鱼攻击日益增多,高级安全模式正是为这些高风险账户量身定制。”
这一功能并非默认开启,而是需要用户主动在账户设置中启用。OpenAI建议所有拥有敏感数据或频繁使用API接口的用户尽快激活该模式。
行业背景:AI账户成为黑客新目标
随着ChatGPT、Codex等AI工具在商业和开发领域的广泛应用,黑客开始将目光转向这些账户。过去一年中,多起针对AI账户的钓鱼攻击被曝光,攻击者通过伪造登录页面或发送恶意链接窃取API密钥,进而滥用AI服务或窃取用户数据。安全研究公司Recorded Future的报告指出,2025年AI相关钓鱼攻击数量增长了300%。
OpenAI此次推出的高级安全模式,正是对这一趋势的回应。该公司此前已推出过基础版的两步验证,但新功能在检测和响应能力上有了质的飞跃。例如,行为分析系统能够识别出“非典型”的使用模式——即便攻击者成功获取了密码和验证码,如果其行为与用户历史记录不符,系统也会阻止访问。
编者按:安全与便利的永恒博弈
OpenAI的高级安全模式无疑为用户提供了更强大的防护网,但同时也引发了关于用户体验的讨论。多因素认证的额外步骤可能让部分用户感到繁琐,尤其是对于日常频繁使用AI工具的开发者和创意工作者。然而,在AI安全威胁日益严峻的今天,这种权衡或许是必要的。正如一位安全专家所言:“在数字时代,稍微增加一点登录时间,可能就能避免灾难性的数据泄露。”
值得注意的是,OpenAI并未透露该功能是否会向免费用户开放。目前,高级安全模式仅面向ChatGPT Plus和Team订阅用户,企业版用户则享有更多定制化选项。未来,随着AI技术的进一步普及,类似的安全机制或将成为行业标配。
本文编译自WIRED
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接