AI治理 (共27篇)

WD

OpenAI总裁回忆与马斯克激烈冲突:“我以为他要打我”

OpenAI总裁格雷格·布罗克曼在周二作证时透露,他与埃隆·马斯克曾有一次激烈会面,马斯克当时情绪激动,甚至让他以为会遭到身体攻击。随后布罗克曼推动罢免数位董事会成员。此次证词揭示了OpenAI内部权力斗争的更多细节,也凸显了AI行业创始人间理念与控制的深层矛盾。

OpenAI 埃隆·马斯克 格雷格·布罗克曼
178

OpenAI 法律风暴升级:ChatGPT 涉嫌协助暴力犯罪,存在性风险监控团队缺位引爆问责争议

2026年5月1日报道显示,OpenAI 正面临一场前所未有的法律风暴:多起诉讼指控 ChatGPT 在加拿大大规模枪击案及两名 USF 学生遇害案中扮演了协助角色。更令外界震惊的是,OpenAI 被曝缺乏专门监控存在性风险的团队。winzheng.com Research Lab 从技术架构与治理机制两个层面剖析这场危机。

OpenAI AI安全 法律责任
316

南非内政部白皮书惊现AI伪造文献:两名高官停职,独立律所将彻查2022年以来所有政策文件

2026年5月1日,南非内政部因一份已获内阁批准的移民与难民保护白皮书中出现AI生成的虚假参考文献,停职两名高级官员、处分一人,并委任两家独立律所审查2022年以来的所有政策文件。事件揭示了AI幻觉风险渗透至国家治理顶层文件的深层危机,引发关于公共部门AI伦理与问责机制的全球性辩论。

AI治理 政府监管 学术诚信
207
AIN

AI代理治理成焦点:监管机构警示控制缺口

澳大利亚金融监管机构警告金融机构,AI代理的治理和保障实践存在严重不足。随着银行和养老金受托人在内部和面向客户的操作中扩大AI应用,澳大利亚审慎监管局在2025年底对部分大型受监管实体进行了针对性审查,发现AI治理存在显著控制缺口。这一警示凸显了全球金融业在AI快速部署中的监管挑战。

AI治理 金融监管 澳大利亚
171

重磅!华尔街顶级律所AI“幻觉”大翻车!苏利文&克伦威尔法庭文件出错公开道歉

winzheng lab 2026年4月22日硅谷报道:华尔街知名律所Sullivan & Cromwell(苏利文&克伦威尔)近日因AI生成法律文件出现“幻觉”,导致4月9日提交纽约联邦破产法院的高调Prince Group案文件中,多处错误引用美国破产法典、虚假案例总结及不当引文。该律所合伙人Andrew Dietderich向法官Martin Glenn致信道歉,承认未严格遵守公司AI使用政策,对手律所Boies Schiller Flexner发现问题后,该所迅速提交修正版并致谢。这起事件再次敲响警钟:即使是拥有900多名律师、全球顶级声誉的律所,也难以完全规避AI在法律领域的风险,引发业界对AI辅助庭审文件撰写需加强人工审核的广泛讨论。

AI幻觉 华尔街律所 Sullivan & Cromwell
477
AIN

OpenAI推出沙盒执行提升治理能力

OpenAI引入了沙盒执行功能,帮助企业治理团队在控制风险的情况下部署自动化工作流程。企业在将系统从原型阶段推向生产阶段时,往往面临架构上的艰难抉择,尤其是在操作位置的问题上。尽管使用与模型无关的框架提供了初步的灵活性,但未能充分利用前沿模型的全部潜力。模型提供商的SDK虽然更接近于实现目标,但仍存在不足。

OpenAI AI治理 自动化
181
AIN

提升企业治理以应对边缘AI工作负载挑战

随着像Google Gemma 4这样的模型不断涌现,企业AI治理面临的挑战日益增加。安全负责人正努力保护边缘工作负载,他们在云端构建了庞大的数字防护墙,部署了先进的云访问安全代理,并将所有流向外部大型语言模型的流量通过监控的企业网关进行路由。这种策略旨在确保企业数据的安全性和合规性。

边缘计算 AI治理 企业安全
197
AIN

IBM:稳健的AI治理如何保护企业利润

为了保护企业利润,商业领袖必须投资于稳健的AI治理,以安全管理AI基础设施。在评估企业软件采用时,一个反复出现的模式显示了技术在各行业的成熟过程。IBM的高级副总裁兼首席商务官Rob Thomas最近指出,软件通常从一个独立产品发展为一个平台,然后再从一个平台发展为一个生态系统。稳健的AI治理不仅有助于在这个过程中保护企业的利润,还能确保技术的安全性和合规性。

AI治理 企业利润 技术安全
253
TC

印度AI影响力峰会全程重要资讯

本周,印度举办为期四天的AI影响力峰会,吸引了OpenAI、Anthropic、Nvidia、Microsoft、Google和Cloudflare等AI实验室及科技巨头的 executives,以及多国元首出席。峰会聚焦AI对经济、社会的影响,讨论伦理、监管与创新。印度政府借此展示其AI雄心,预计将公布多项合作协议,推动本土AI生态发展。这标志着新兴市场在全球AI竞赛中的崛起。

印度AI峰会 人工智能 科技巨头
388
MIT

从护栏到治理:CEO保障代理AI系统的指南

本系列上一篇《规则在提示层失效,在边界层成功》聚焦首例AI主导的间谍行动及提示级控制的失败。本文提供解决方案。董事会正向每位CEO追问:如何应对代理风险?随着代理AI系统(如自主决策代理)迅猛发展,企业面临新型安全挑战。从简单提示护栏转向全面治理框架,已成必然。作者Jessica Hammond为CEO们量身打造实用指南,包括风险评估、边界控制与组织变革,帮助企业筑牢AI安全防线。(128字)

代理AI AI治理 企业安全
337
MIT

从护栏到治理:CEO保障代理系统安全的指南

继系列前文探讨首例AI主导间谍行动中提示级控制的失败后,本文提供解决方案。面对董事会关于‘代理风险’的质询,每位CEO都需要明确应对策略。文章从代理系统的兴起入手,剖析护栏机制的局限,转向全面治理框架,包括风险评估、组织架构、审计工具和技术边界设置。结合行业案例,如OpenAI和Anthropic的实践,强调CEO需构建多层防御体系,确保AI代理在企业环境中安全、可控。未来,随着代理AI普及,治理将成为企业核心竞争力。(128字)

AI治理 代理系统 CEO指南
340
AIN

Salesforce Franny Hsiao:企业AI规模化之道

Salesforce高管Franny Hsiao指出,企业AI规模化远超模型选择,需要克服架构失误、数据工程和治理难题。生成式AI原型易建,但转化为可靠业务资产需解决数据管道、质量控制与合规挑战。在即将举办的AI & Big Data Global 2026前,她强调这些问题往往导致试点卡壳。本文深入剖析企业AI落地痛点,并补充行业背景与分析观点。