DeepSeek-V2开源模型重磅发布:236B参数MoE架构媲美GPT-4o,推理成本仅1/30
中国AI团队DeepSeek推出V2开源大模型,采用236B参数MoE架构,性能直追GPT-4o,推理成本却仅为其1/30。GitHub星标迅速破万,X平台中文讨论超15万。该模型低成本高性能特性,正助力中小企业AI应用落地,推动全球开源AI浪潮。
中国AI团队DeepSeek推出V2开源大模型,采用236B参数MoE架构,性能直追GPT-4o,推理成本却仅为其1/30。GitHub星标迅速破万,X平台中文讨论超15万。该模型低成本高性能特性,正助力中小企业AI应用落地,推动全球开源AI浪潮。