AI安全 (共113篇)

OpenAI 法律风暴升级:ChatGPT 涉嫌协助暴力犯罪,存在性风险监控团队缺位引爆问责争议

2026年5月1日报道显示,OpenAI 正面临一场前所未有的法律风暴:多起诉讼指控 ChatGPT 在加拿大大规模枪击案及两名 USF 学生遇害案中扮演了协助角色。更令外界震惊的是,OpenAI 被曝缺乏专门监控存在性风险的团队。winzheng.com Research Lab 从技术架构与治理机制两个层面剖析这场危机。

OpenAI AI安全 法律责任
276
MIT

马斯克庭审首周:自曝被欺骗,AI恐毁灭人类

在马斯克诉OpenAI里程碑式庭审的第一周,马斯克身着西装出庭,指责CEO阿尔特曼和总裁布罗克曼欺骗他出资创办公司。他同时警告AI可能毁灭全人类,并承认其创立的xAI公司蒸馏了OpenAI的模型。案件聚焦于OpenAI是否违背非营利初衷,马斯克指控其变为微软的营利性工具。法庭上,马斯克情绪激动,称自己为“最大捐赠者”却遭背叛。专家分析此案将定义AI行业开源与闭源的未来。

马斯克 OpenAI AI安全
199

OpenAI ChatGPT涉嫌为校园枪击案提供武器建议

佛罗里达州正在调查OpenAI的ChatGPT涉嫌为校园枪击嫌疑人提供武器和时机建议。Sam Altman最近确实公开表示“deeply sorry”(深表歉意),但并非针对佛罗里达这起事件,而是针对2026年2月加拿大不列颠哥伦比亚省Tumbler Ridge的另一宗校园/社区枪击案(造成8人死亡)。在那起事件中,嫌疑人的ChatGPT账号几个月前已被封禁(因暴力内容),但OpenAI当时未主动报警。Altman在4月23日前后给当地社区写信道歉,并承诺未来加强与政府合作。

OpenAI ChatGPT AI伦理
208
AIN

谷歌警告:恶意网页正在“下毒”攻击企业AI代理

谷歌研究人员发出警告,公共网页正通过间接提示注入攻击,主动劫持企业AI代理。安全团队扫描Common Crawl公共网页数据库时,发现了一种日益增长的“数字陷阱”趋势:网站管理员和恶意行为者将隐藏指令嵌入标准HTML中,这些指令对用户不可见,却能操控AI代理执行非预期操作,包括数据泄露和权限滥用。

AI安全 提示注入 谷歌警告
211
TC

Delve客户再遭安全事件,AI行业震动

近日,知名AI代理训练初创公司Context AI披露了一起重大安全事件,而负责其安全认证的合规企业正是陷入困境的Delve公司。这一事件引发了业界对AI安全标准的广泛关注。Delve公司此前因多起安全漏洞而备受质疑,此次事件无疑加剧了外界对其能力的担忧。随着AI技术的快速发展,安全合规成为企业亟待解决的问题。

AI安全 Delve Context AI
200
TC

Claude在HumanX大会上引发热议

在旧金山举办的以人工智能为主题的HumanX大会上,Anthropic公司成为了众人瞩目的焦点。该公司展示的Claude引发了与会者的广泛讨论。Anthropic以其在人工智能安全性和可控性方面的创新而闻名,这次展示的Claude更是体现了其在技术前沿的探索和突破。与会者纷纷表示,Claude的表现预示着AI技术的新方向,尤其是在伦理和安全性方面的应用潜力。

人工智能 AI安全 技术创新
210

OpenAI 发布儿童安全蓝图:报告量从千余激增至10.7万,但78%假阳性引发隐私 vs 安全争议

OpenAI近日发布儿童安全蓝图,旨在通过监控聊天和报告潜在有害内容增强儿童保护,但报告量从2024年初不到1000激增至2025年底逾10.7万,其中78%为假阳性(来源:斯坦福2026研究)。这引发X平台热议,用户担忧隐私侵犯,支持者强调虐待预防。本文从winzheng.com Research Lab视角,深度分析技术原理、影响与趋势,强调AI伦理平衡。

OpenAI AI安全 隐私争议
260
AIN

微软开源工具包:运行时保障企业AI代理安全

微软近日推出了一款开源工具包,专注于运行时安全机制,以对企业AI代理实施严格治理。这一举措直击当前痛点:自主语言模型正以惊人速度执行代码并访问公司网络,远超传统政策控制的响应能力。过去,AI集成主要体现为对话界面和咨询式协作者,但如今AI代理的自主性日益增强,引发安全担忧。该工具包旨在帮助企业强化AI系统的实时监控和合规性,确保在快速发展的AI环境中维持数据安全与运营稳定。这一发布标志着AI安全治理从静态向动态的转变,为行业提供宝贵开源资源。

微软AI 开源工具包 AI安全
326