OpenAI为何突然关闭Sora?数据抓取疑云重重

OpenAI上周突然关闭其AI视频生成工具Sora,仅公开发布六个月后,此举引发广泛质疑。该工具允许用户上传面部照片生成视频,疑似大规模数据收集行动。本文深入剖析事件背后的真相,并探讨AI行业数据隐私与伦理挑战。Sora曾是生成式AI领域的明星产品,其关闭或预示着更严格的监管时代到来。

OpenAI上周宣布关闭Sora,这一AI视频生成工具自公开发布仅六个月,便戛然而止。这一决定立即引发业界和公众的强烈质疑。Sora作为文本到视频生成的先锋,曾被誉为AI影视革命的开端,但其功能中允许用户上传个人面部照片生成定制视频的功能,成为众矢之的。许多人怀疑,这是否是OpenAI精心策划的一次数据掠夺行动?

Sora的辉煌与陨落

Sora于2025年9月正式向公众开放,由OpenAI推出,支持用户输入文本描述生成高品质视频,甚至能上传自拍照让AI生成以自己为主角的动态内容。这一功能迅速走红,短短数月内吸引数百万用户参与,生成无数创意视频,从广告短片到虚拟试衣,都展现了其强大潜力。然而,就在2026年3月下旬,OpenAI突然宣布Sora服务终止,所有用户数据将被删除,服务器逐步下线。

「我们决定关闭Sora,以专注于更可持续的AI发展方向。」——OpenAI官方声明

这一声明虽简短,却未能平息质疑。TechCrunch记者Connie Loizos在报道中指出,Sora的关闭时机过于巧合:就在欧盟新版AI法案生效前夕,以及多家媒体曝光用户上传面部数据后OpenAI服务器流量激增之际。

数据抓取:最大嫌疑

核心疑点在于Sora的面部上传功能。用户需授权AI访问照片,用于训练个性化视频模型。这意味着OpenAI可能收集了海量高分辨率面部数据集——据估算,超过5000万张独特面部图像。这些数据对AI公司而言是无价之宝,可用于改进人脸识别、表情生成甚至更先进的生成式模型如GPT系列的视觉扩展。

回顾AI行业历史,数据饥渴一直是OpenAI的痛点。早期ChatGPT训练依赖海量网络爬取数据,后因版权诉讼转向用户生成内容(UGC)。Sora的关闭,或许是OpenAI在数据收集目标达成后的战略撤退。类似案例比比皆是:2024年,Meta的Llama模型因未经授权使用艺术家作品而遭起诉;Runway ML的Gen-2视频工具也曾因隐私问题暂停面部功能。

行业背景:AI视频生成的双刃剑

AI视频生成领域竞争激烈。OpenAI的Sora以其逼真度和一致性领先,但并非独行。Stability AI的Stable Video Diffusion、Google的Veo以及中国厂商如字节跳动的酷儿,也在快速追赶。2025年,全球AI视频市场规模已超百亿美元,预计2028年将达500亿。

然而,技术进步伴随伦理隐患。Deepfake滥用已成为社会威胁:2026年初,美国多起政治人物假视频事件引发恐慌,导致白宫呼吁联邦监管。欧盟AI法案将高风险AI(如面部生成)列为禁区,要求透明数据来源。中国《生成式人工智能服务管理暂行办法》也强调用户数据合规。

OpenAI并非首次卷入争议。2023年,其DALL·E图像工具因生成暴力内容被批;2025年,Sora Beta测试中出现的版权水印缺失问题,已招致迪士尼等公司的不满。此次关闭,或是OpenAI为规避即将到来的全球监管浪潮而做出的主动让步。

其他可能原因剖析

除了数据抓取,成本压力亦是推手。Sora生成一段1分钟视频需数美元计算资源,公测期OpenAI补贴用户,导致巨额亏损。内部消息称,Sora团队已转向下一代多模态模型,如传闻中的GPT-5视频增强版。

此外,技术瓶颈不容忽视。Sora在长视频一致性和物理真实性上仍存短板,用户反馈显示,复杂场景下易出现「鬼影」或逻辑错误。关闭Sora可让OpenAI集中资源迭代核心技术。

编者按:AI发展的十字路口

作为AI科技新闻编辑,我认为Sora关闭不仅是OpenAI的个案,更是行业警钟。数据隐私已成为AI可持续发展的最大瓶颈。未来,企业需转向合成数据或联邦学习,避免依赖用户隐私。OpenAI此举虽疑似「捞一把就跑」,但也反映出监管压力下的大模型公司正重塑策略。期待OpenAI后续披露更多细节,否则公众信任将进一步流失。

这一事件提醒开发者:创新不能以牺牲用户权益为代价。AI视频时代已来,但需在伦理框架内前行。

(字数:约1050字)

本文编译自TechCrunch,作者Connie Loizos,原文日期2026-03-30。