⭐ 本站推荐

生成式AI服务评估标准化:API导向基准测试新范式

生成式AI迅猛发展,ChatGPT用户从中2023年中至2025年初增长约8倍,各大厂商模型迭代如火箭般迅猛。传统基准测试已跟不上节奏,MLPerf Endpoints应运而生,由MLCommons联合创始人David Kanter在GTC发布。该基准采用API中心架构,支持HTTP/gRPC接口,仅需URL即可测试云端或本地部署。创新引入Pareto曲线和阶跃函数可视化真实性能权衡,避免虚假指标。从2026年Q2起实现滚动提交,随时发布经审计结果。首批演示涵盖AMD、Google等厂商,多款模型如DeepSeek-R1、Llama 3.1,助力企业采购决策。(128字)

MLC MLPerf Endpoints 生成式AI基准
15
⭐ 本站推荐

Qwen Max知识工作能力骤降9.8分:逻辑推理失准成最大短板

本周Qwen Max在知识工作维度出现显著下滑,得分从81.6降至71.8,降幅达9.8分。这一变化主要源于模型在逻辑推理任务上的表现严重退步,特别是在经典的"谁说了谎"推理题上,得分从50分直降至25分。逻辑推理能力出现系统性偏差 在"谁说了谎"这道测试题中,模型需要根据"恰好有一人...

Qwen Max AI评测 赢政指数
52
⭐ 本站推荐

赢政指数周报:知识工作能力集体下滑,Claude逆势稳定

本周(2026-W12)赢政指数评测显示,AI模型市场出现了罕见的知识工作能力集体下滑现象。8个主流模型中,有6个在知识工作维度出现不同程度的性能下降,其中GPT-o3暴跌12.1分,创下近期最大单项跌幅。核心发现:知识工作能力普遍退化数据显示,本周知识工作能力下滑呈现梯度分布:GPT-o3...

赢政指数 周报 AI评测
35

AI模型对批量操作故障排查能力的层次化分析

AI模型对批量操作故障排查能力的层次化分析在这道考察工程判断力的题目中,8个AI模型展现出了明显的能力分层。题目的核心在于识别"单条成功但批量失败"这一典型的并发问题模式。第一梯队:精准定位问题本质DeepSeek V3和R1(均得20分)直击要害,明确指出需要检查"并发处理机制和平台接口...

赢政指数 模型横评 工程判断力:批量操作单条失败排查
51

工程判断力测试:8大AI模型数据库误删恢复方案对比分析

在数据库误删恢复这道工程判断力题目中,8个主流AI模型展现出了显著的理解差异和应对策略分歧。题目的核心考点在于:面对线上数据库误删事故,工程师应该采取的第一步行动。理解偏差:两大阵营泾渭分明从得分分布看,模型呈现明显的两极分化:5个模型获得40分,3个模型得0分。这种差异源于对"第一步应该怎...

赢政指数 模型横评 工程判断力:数据库误删恢复
48

GPT-o3性能断崖式下跌:知识工作能力骤降12.1分背后的技术隐患

本周GPT-o3在知识工作维度出现严重性能退化,得分从82.4分骤降至70.3分,降幅达12.1分。这一异常表现集中体现在逻辑推理和语言理解两个核心能力上,引发了对模型稳定性的深度担忧。 逻辑推理能力严重退化 最典型的案例是"排班冲突"题目,GPT-o3的得分从满分100直接跌至10分。...

GPT-o3 性能断崖式下跌 AI评测
40

全球标准,本地真实:亚太多语言多模态AI安全基准试点

AI作为当今采用速度最快的通用技术,其全球普及却存在显著差距,反映出数字鸿沟。MLCommons推出AILuminate Culturally-Specific Multimodal Benchmark,针对亚太地区开发文化特定的多语言多模态数据集,揭示模型在全球南方语境下的性能短板。文章强调文化特定风险评估,避免简单二元标签,转而鼓励本地专家定义适当响应,如中国送钟禁忌。多模态场景如识别本地物品图像尤为关键。目前数据集已含7000+文本+图像提示,覆盖新加坡、印度、韩国等地,计划2026年夏季发布。全球伙伴合作确保基准接地气,推动AI安全公平性。(128字)

MLC AI安全 多模态基准
217

MLPerf Inference v6.0 Edge 套件升级至 YOLO11

MLPerf Inference 基准已成为评估 AI 基础设施性能的行业标准。本次 v6.0 Edge 套件将 RetinaNet 升级为 Ultralytics YOLO11,这款现代化的单阶段目标检测模型在 COCO 数据集上 mAP 达 53.4%,参数仅 2530 万,支持多种计算精度权衡。任务组选择了 YOLO11l 变体,并开发了合规的 COCO MLPerf 子集(80 类、1525 张图像、52 MB),确保基准合法分发。同时优化 LoadGen 集成,解决类别映射、坐标归一化和序列化问题,实现与 Ultralytics 参考一致的准确率。该升级反映 AI 目标检测领域的最新趋势,推动硬件优化。(128 字)

MLC MLPerf Inference YOLO11
224

将 Text-to-Video 引入 MLPerf Inference v6.0

MLPerf Inference v6.0 基准套件首次引入文本到视频(Text-to-Video)任务,标志着视频生成模型从实验性工具向专业工作流的核心转型。任务组选用阿里巴巴开源的 Wan2.2-T2V-A14B-Diffusers 模型,该模型采用独特的专家混合架构,通过高噪声和低噪声专家顺序激活生成高质量视频。基准限制视频时长为5秒、720p分辨率、16fps,数据集基于 VBench 精简至248样本,使用 SingleStream 场景测量延迟。VBench 提供16维质量评估,精选6关键指标确保准确性和公平性。参考实现基于 Hugging Face Diffusers,在 BF16 精度下准确率达70.48。该基准为消费者决策和厂商优化提供标准化参考。

MLC MLPerf Text-to-Video
231

MedPerf 集成 Apache Airflow,提升联邦临床研究数据准备体验

MLCommons 医疗工作组通过 MedPerf 开源平台推进医疗 AI/ML 模型的真实世界基准测试与评估。最新集成 Apache Airflow,大幅简化联邦临床研究中的数据准备管道的分发、编排与监控。针对以往单容器方法带来的错误、调试难题及可扩展性不足等问题,新方案将多个容器串联成工作流,支持模块化复用、WebUI 监控与错误恢复。非技术用户只需 YAML 文件即可构建管道,自动转换为 Airflow DAG。FL-PoST 研究已投入生产,保障数据隐私并提升协作效率。欢迎社区探索与贡献。

MLC MedPerf Apache Airflow
133

SGLang 日零支持 NVIDIA Nemotron 3 Super,赋能高效多代理系统

SGLang 宣布 Day-0 支持 NVIDIA Nemotron 3 Super,这是 Nemotron 3 系列领先的开源模型,专为多代理协作设计。Nemotron 3 Super 采用 120B 参数混合 MoE 架构,每前向传播仅激活 12B 参数,在编码、工具调用和指令遵循上表现出色,支持 1M 上下文长度。Artificial Analysis 图表显示其在智能与开放性上领先同类模型。文章详解安装 SGLang 并部署模型,支持多代理推理工作负载,如规划、推理和工具链。提供 Hugging Face 下载链接、SGLang Cookbook 和技术报告,助力开发者构建可扩展、高效的多代理 AI 系统。

LMSYS SGLang Nemotron 3 Super
291

SGLang在NVIDIA GB300 NVL72上实现25倍推理性能飞跃

SGLang团队与NVIDIA紧密合作,在多代GPU上为大规模MoE推理模型部署带来阶跃式性能提升。继Blackwell B200对比Hopper H200实现4倍加速后,现扩展至Blackwell Ultra的GB300 NVL72,在InferenceXv2基准上较H200提升高达25倍。同时,GB200 NVL72性能在4个月内提升8倍。这些成果源于软硬件协同优化,显著降低延迟、提升吞吐量并减少每token成本。未来将进一步支持MTP、多模型调优及Vera Rubin系统,推动前沿推理模型部署成本降低。(128字)

LMSYS SGLang NVIDIA GB300
190

GB300 NVL72部署DeepSeek:长上下文推理大幅提升

Blackwell家族最新成员GB300 NVL72成为长上下文LLM推理最强平台。本文分享优化DeepSeek R1-NVFP4在128K/8K ISL/OSL长上下文服务上的最新进展,采用prefill–decode disaggregation (PD)、chunked pipeline parallelism (PP)、wide expert parallelism (Wide-EP)、multi-token prediction (MTP)等技术。在长上下文负载下,SGLang在GB300 NVL72上实现最高226 TPS/GPU(较GB200提升1.53X),MTP进一步提升用户吞吐量1.87X。与GB200同等延迟条件下,GB300 TPS/GPU提升1.4X–1.6X。亮点包括EP解码扩展、PP预填充优化及更快注意力内核。复现指南见GitHub issue:18703。(128字)

LMSYS GB300 NVL72 DeepSeek
377

AI风险新标准:AILuminate全球保障计划重塑可靠性

人工智能行业正处于转折点,企业将AI从实验阶段推向金融、医疗和制造等关键业务时,可靠性验证成为核心障碍。MLCommons联盟(包括KPMG、Google、Microsoft和Qualcomm)推出AILuminate全球保障计划(AIL GAP),通过数据驱动机制桥接高层标准与实际技术性能差距。该计划围绕三大支柱:Build(Benchmarking-as-a-Service,集成基准测试服务);Show(AILuminate风险标签,提供决策友好指标);Scale(AILuminate全球框架,支持区域和行业定制)。这为风险合规专业人士提供可验证的AI可靠性标准,推动行业成熟。(128字)

MLC AI风险 可靠性保障
306

SGLang-Diffusion:生产级视频生成的高级优化

继两月进展更新后,SGLang-Diffusion团队深入剖析了多项高级优化,使其成为可靠的生产级视频生成框架。这些优化聚焦可扩展性、效率与稳定性,针对扩散模型大规模部署的关键瓶颈。核心改进包括:从帧级到Token级SP-Sharding减少填充开销;Parallel Folding解耦文本编码器与DiT并行策略;分布式VAE并行编码/解码消除高分辨率内存瓶颈;修复Cache-DiT多请求稳定性问题;优化视频保存去除序列化开销;融合CuTeDSL JIT内核提升LayerNorm效率。性能测试显示,在Wan2.2 T2V任务中显著超越LightX2V。未来将继续推进2026Q1路线图。(128字)

LMSYS SGLang-Diffusion 视频生成
467

MLCommons 为可辩护越狱基准测试奠基

随着大语言模型进入安全、合规关键环境,对抗性提示鲁棒性已成为运营必需。单轮越狱攻击持续暴露系统弱点。MLCommons 推出基于分类法的评估方法,建立可辩护、可复现的基准基础。该方法采用机制优先的单轮提示攻击分类法,确保确定性标注、一一映射和一致覆盖。通过严谨过程构建分类法,提供系统性攻击选择、可复现生成和机制分层评估。未来将扩展覆盖、多模态评估,并邀请社区参与,推动AI安全评估标准化。(128字)

MLC MLCommons 越狱攻击
412

深度解析:从 DeepSeek 到 Gemini,如何构建防御“模型蒸馏”的铜墙铁壁?

谷歌Gemini遭模型蒸馏攻击曝光后,winzheng Research Lab最新报告剖析DeepSeek事件,揭示攻击链条全貌。从API异常调用到混合训练路径,事件铁证如山。报告提出API智能风控、输出水印及模型对抗训练的纵深防御体系,并给出企业三步走实施指南。面对低成本克隆威胁,AI企业如何守住护城河?本文深度解析反蒸馏策略,助你构建铜墙铁壁。(128字)

DeepSeek 模型蒸馏 AI安全
1,048

释放计算潜能:Qwen3与Qwen3-VL在AMD MI300X上的极致延迟优化

阿里云Qwen团队与AMD AI框架团队携手,在AMD Instinct™ MI300X系列GPU上基于SGLang框架,对Qwen3-235B和Qwen3-VL-235B实现极端延迟优化。Qwen3-235B相比基线,TTFT提升1.67×,TPOT提升2.12×;Qwen3-VL-235B TTFT提升1.62×,TPOT提升1.90×。优化聚焦PTPC FP8量化、TP8并行策略、Attention KV-Cache布局优化、MoE负载均衡及内核融合等多维度,所有工作开源于GitHub。MI300X凭借192GB HBM3内存和5.3TB/s带宽,成为大模型推理理想平台。本文详解这些技术突破,推动交互式AI应用的低延迟部署。(128字)

LMSYS Qwen3 Qwen3-VL
780

技术标准:AI大规模采用的桥梁

人工智能正从消费级聊天工具转型为驱动企业服务的通用技术,却面临可靠性壁垒。企业需确信AI系统输出正确、安全且可靠,方能广泛部署。克服此挑战依赖评估标准,将ISO/IEC等传统标准与AI的非确定性桥接。MLCommons等组织将这些目标转化为可操作基准,如AILuminate,用于生成AI安全与产品可靠性测试。这确保AI在金融、医疗、制造等高风险场景中可靠运行。历史如NCAP安全测试,推动汽车行业变革。标准化评估将驱动AI进步,建立公众信任,解锁更高价值市场。(128字)

MLC AI标准 可靠性
726

Croissant 1.1 新功能:可扩展、代理就绪的 ML 数据集标准

MLCommons 发布 Croissant 1.1,这是社区共建的机器学习数据集元数据格式最新版本。在 Croissant 1.0 标准化机器可读结构基础上,1.1 版新增机器可操作来源追踪、全方位词汇互操作性、结构化使用政策以及复杂多维数据集增强建模。这些功能专为 AI '代理时代' 设计,支持链式保管审计、W3C PROV-O 模型、DUO 和 ODRL 政策集成。目前已有 70 万数据集采用 Croissant 元数据,主要框架如 TensorFlow、PyTorch 和仓库如 Hugging Face 已原生支持,推动数据自治发现与合规使用。(128 字)

MLC Croissant 1.1 ML数据集
714

DLRMv3:MLPerf Inference生成式推荐基准

计算规模扩展遵循神经缩放定律,已显著减少自然语言处理和计算机视觉领域的手动特征工程需求,转而依赖大规模注意力Transformer模型从数据中自动学习丰富表示。类似趋势正变革深度学习推荐系统,传统依赖MLP、GNN和嵌入表架构,如今大型序列和生成模型已在在线内容推荐平台部署,大幅提升模型质量。MLPerf推出DLRMv3,作为首个序列推荐推理基准,基于HSTU架构,模型规模从50GB增至1TB(20倍),每候选计算从40M FLOP飙升至260 GFLOP(6500倍),紧跟生产级负载,助力基础设施发展。该基准聚焦排名阶段,支持长序列、注意力密集计算和大嵌入表,真实反映现代推荐工作负载。(128字)

MLC DLRMv3 MLPerf
831

CKAN Croissant:MLCommons AI模型基准新纪元

MLCommons近日发布CKAN Croissant基准,基于Croissant v1.0元数据格式,旨在标准化AI模型评估。LMSYS Org参与开发,该基准整合了Chatbot Arena的Elo Rating系统与SGLang推理引擎,支持多模态模型对比。测试覆盖100+模型,顶级表现者包括GPT-4o(Elo 1300+)和Llama 3.1。关键创新包括自动化模型注册、零样本评估协议及可复现容器化部署,推动开源AI公平竞争。未来将扩展至边缘设备基准。(128字)

MLC MLCommons CKAN
734

MLCommons发布Ailuminate法语数据集

MLCommons组织近日推出Ailuminate基准的法语数据集版本,进一步扩展多语言大语言模型(LLM)评估框架。该数据集涵盖翻译、阅读理解、常识推理等多项任务,总计超过10万条高质量法语样本,由专业标注团队构建,确保文化适应性和准确性。基准测试显示,顶级模型如GPT-4o在法语任务上Elo Rating达1350分,但本土模型仍有优化空间。此举旨在推动法语AI生态发展,促进全球LLM公平评估。(128字)

MLC Ailuminate 法语数据集
583

MLPerf Client v0.6基准测试结果发布

MLCommons近日公布了MLPerf Client v0.6基准测试结果,这是首个针对客户端设备(如手机、笔记本)的标准化AI推理基准。新版本引入Llama 2 70B和Stable Diffusion等热门大模型工作负载,涵盖离线、服务器、单流等7种场景。NVIDIA、Qualcomm、MediaTek等厂商提交结果,展示了TensorRT-LLM、Snapdragon等平台的强劲性能。例如,在Llama 2 70B离线场景下,NVIDIA占据领先。结果凸显边缘AI推理的进步,推动移动设备大模型部署。(128字)

MLC MLPerf 客户端推理
607

MLPerf Training v5.0:Llama 3.1 405B训练基准创纪录

MLCommons发布了MLPerf Training v5.0基准结果,首次引入Llama 3.1 405B作为大型语言模型训练任务。该基准测试了多家厂商的超级计算系统在训练405B参数模型时的性能。NVIDIA的DGX SuperPOD系统以最快时间完成训练,展示了H100 GPU集群的强大能力。测试采用SGLang框架和8位量化优化,训练至90%准确率仅需数小时。结果突显AI训练效率提升,推动开源大模型标准化。该基准为行业提供了宝贵参考,促进硬件与软件协同优化。(128字)

MLC Llama 3.1 MLPerf
677

NASSCOM 加入 MLCommons 联盟,推动印度 AI 基准发展

MLCommons 宣布印度国家软件与服务公司协会(NASSCOM)正式加入其联盟,成为第 50 个成员组织。这一合作将助力印度 AI 生态系统的发展,推动标准化基准测试如 MLPerf 的应用。NASSCOM 代表超过 3000 家成员企业,总营收超 2000 亿美元,将为 MLCommons 带来印度市场洞察,促进全球 AI 创新与公平竞争。未来,双方将聚焦 AI 训练、推理基准等领域,加速印度 AI 基础设施建设。(128 字)

MLC MLCommons NASSCOM
572