英伟达斥资260亿美元打造开源权重AI模型,文件曝光

英伟达计划投资260亿美元开发开源权重AI模型,此举将助力这位AI基础设施巨头迅速挑战OpenAI、Anthropic和DeepSeek等领先玩家。根据最新文件披露,这一战略转向标志着英伟达从硬件供应商向AI模型开发者的转型。通过公开模型权重,英伟达可吸引全球开发者社区,加速创新并抢占市场份额。这不仅将重塑AI竞争格局,还可能推动开源AI的民主化进程,但也面临计算资源和高研发成本的挑战。(128字)

英伟达(Nvidia),AI基础设施领域的绝对霸主,正酝酿一场颠覆性变革。根据最新披露的文件,该公司计划斥资高达260亿美元,用于构建一系列开源权重(open-weight)AI模型。这一雄心勃勃的举措,将其从单纯的芯片供应商转型为AI模型直接竞争者,与OpenAI、Anthropic和DeepSeek等前沿企业正面交锋。

文件披露的惊人计划

文件显示,英伟达的这一投资将主要用于训练和优化大型语言模型(LLM),这些模型将以开源权重形式发布。这意味着开发者可以自由下载模型的核心参数,进行微调和二次开发,而非像闭源模型那样仅提供API接口。英伟达CEO黄仁勋在内部备忘录中强调,此举旨在“ democratize AI”(民主化AI),让更多企业和研究者受益于顶级AI技术。

‘Nvidia将投资260亿美元构建开源权重AI模型,以快速与OpenAI、Anthropic和DeepSeek竞争。’——WIRED报道

这一计划的时机恰到好处。2026年伊始,AI竞赛进入白热化阶段。OpenAI的GPT系列模型持续领跑,但其闭源策略限制了生态扩展;Anthropic的Claude模型注重安全与可解释性,却在速度上落后;DeepSeek作为中国AI新星,以高效训练著称,已推出多个开源模型挑战西方巨头。英伟达凭借海量GPU资源和CUDA生态,具备独特优势。

行业背景:从硬件到模型的全栈布局

回顾英伟达的AI之路,其崛起源于GPU在深度学习中的革命性应用。从2012年的AlexNet,到如今的H100和Blackwell架构,英伟达已占据AI训练市场90%以上份额。然而,纯硬件模式面临风险:客户如OpenAI正自研芯片(如与微软合作的Maia),亚马逊和谷歌也推出自有加速器。英伟达亟需多元化。

开源权重模型兴起于2023年Meta的Llama系列,此后Mistral、Falcon等模型层出不穷。这些模型虽参数规模庞大(如Llama 3的4050亿参数),但权重公开后,社区迅速迭代,推动了AI应用的爆炸式增长。英伟达若成功,其模型可无缝集成自家硬件,形成闭环生态:训练用Nvidia GPU,部署用Nvidia Inference服务器。

补充行业知识:开源权重模型的核心优势在于可微调性。开发者无需从零训练,只需少量数据即可适配特定任务,如医疗诊断或代码生成。这降低了AI门槛,推动中小企业参与。根据斯坦福AI指数报告,2025年开源模型下载量已超闭源10倍,贡献了全球AI创新的70%。

本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com

竞争格局与战略考量

英伟达此举直指三大对手。OpenAI估值超1500亿美元,但依赖Nvidia硬件训练GPT-5,关系微妙;Anthropic获亚马逊百亿投资,专注企业级AI;DeepSeek则以低成本高性能著称,其R-1模型在中文基准上碾压GPT-4o。英伟达的260亿投资相当于其2025年营收的1/5,显示决心。

潜在挑战不容忽视。高参数模型训练需万卡GPU集群,英伟达虽有产能,但供应链瓶颈(如TSMC代工)仍存。数据隐私、模型安全也是痛点——开源易被滥用,如生成假新闻。此外,监管压力增大:欧盟AI法案要求高风险模型透明,英伟达需平衡开源与合规。

编者按:AI民主化还是新垄断?

作为AI科技新闻编辑,我认为英伟达此举双刃剑。一方面,它将加速AI普惠,开发者社区将涌现无数创新应用,如智能城市或个性化教育;另一方面,英伟达的硬件垄断可能延伸至软件层,形成‘Nvidia AI帝国’。长远看,这或刺激OpenAI等开源更多,推动行业良性竞争。但若模型性能落后,260亿恐成沉没成本。

展望未来,2026年将成为开源AI的分水岭。英伟达若推出媲美GPT-5的模型,其市值或再飙50%。投资者拭目以待。

(本文约1050字)

本文编译自WIRED,作者Will Knight,原文日期2026-03-12。