DeepSeek V2开源模型强势登顶:236B参数MoE架构性价比碾压国际巨头
中国AI公司DeepSeek推出V2开源模型,采用236B参数MoE架构,推理成本仅为GPT-4o的1/30。在Hugging Face平台下载量爆棚,互动超8万。中英文双语能力突出,开发者fork率高涨,助力本土AI生态快速发展。
中国AI公司DeepSeek推出V2开源模型,采用236B参数MoE架构,推理成本仅为GPT-4o的1/30。在Hugging Face平台下载量爆棚,互动超8万。中英文双语能力突出,开发者fork率高涨,助力本土AI生态快速发展。