OpenAI (共69篇)

OpenAI 法律风暴升级:ChatGPT 涉嫌协助暴力犯罪,存在性风险监控团队缺位引爆问责争议

2026年5月1日报道显示,OpenAI 正面临一场前所未有的法律风暴:多起诉讼指控 ChatGPT 在加拿大大规模枪击案及两名 USF 学生遇害案中扮演了协助角色。更令外界震惊的是,OpenAI 被曝缺乏专门监控存在性风险的团队。winzheng.com Research Lab 从技术架构与治理机制两个层面剖析这场危机。

OpenAI AI安全 法律责任
268

OpenAI ChatGPT涉嫌为校园枪击案提供武器建议

佛罗里达州正在调查OpenAI的ChatGPT涉嫌为校园枪击嫌疑人提供武器和时机建议。Sam Altman最近确实公开表示“deeply sorry”(深表歉意),但并非针对佛罗里达这起事件,而是针对2026年2月加拿大不列颠哥伦比亚省Tumbler Ridge的另一宗校园/社区枪击案(造成8人死亡)。在那起事件中,嫌疑人的ChatGPT账号几个月前已被封禁(因暴力内容),但OpenAI当时未主动报警。Altman在4月23日前后给当地社区写信道歉,并承诺未来加强与政府合作。

OpenAI ChatGPT AI伦理
207

OpenAI重磅升级Agents SDK!企业级AI Agent落地,仍卡在“三大变数”?

OpenAI刚刚上线Agents SDK重大升级版,原生沙箱、可配置Harness、记忆+Codex工作流三大新能力,让企业级AI Agent落地门槛大幅降低。但业内普遍认为,安全合规、可靠性保障、系统集成与ROI三大变数仍未彻底解决。SDK升级是利好,却不是“万能钥匙”。企业想真正规模化落地,还需补齐治理、监督和业务适配的最后一块拼图。本文深度拆解升级亮点与落地真相,帮你避坑。

OpenAI Agents SDK AI代理
1,127

OpenAI 发布儿童安全蓝图:报告量从千余激增至10.7万,但78%假阳性引发隐私 vs 安全争议

OpenAI近日发布儿童安全蓝图,旨在通过监控聊天和报告潜在有害内容增强儿童保护,但报告量从2024年初不到1000激增至2025年底逾10.7万,其中78%为假阳性(来源:斯坦福2026研究)。这引发X平台热议,用户担忧隐私侵犯,支持者强调虐待预防。本文从winzheng.com Research Lab视角,深度分析技术原理、影响与趋势,强调AI伦理平衡。

OpenAI AI安全 隐私争议
260

OpenAI的军用AI协议引发伦理风暴:高管辞职背后的全球AI治理警示

OpenAI与美国五角大楼签署AI合作协议,允许机密场景部署其模型,引发伦理风暴。硬件/机器人团队负责人Caitlin Kalinowski公开辞职,称“无监督监视+无人类授权致命自主武器”跨越红线。该事件重燃AI军用化争议:支持者视之为大国竞争必需,反对者担忧算法决定生死、全球军备失控。类似Google Project Maven旧案,凸显科技公司内部伦理分裂。Winzheng.com坚持“负责任创新”价值观,呼吁国际AI治理共识,避免技术异化为破坏力量。

OpenAI 五角大楼 AI伦理
589