MLCommons 发布 MLPerf Client v1.6:性能优化与用户体验升级

MLCommons®,作为行业标准 MLPerf® 基准测试背后的开源工程联盟,今天宣布发布 MLPerf Client v1.6,这是评估个人电脑 AI 性能的基准测试套件的最新版本。

MLPerf Client 用于衡量从笔记本电脑、台式机到工作站等 PC 在本地运行 AI 工作负载(如大型语言模型 LLM)的效果。通过模拟真实生成式 AI 任务,包括文本摘要、内容创作和代码分析,该基准提供响应速度和吞吐量等清晰、标准化的指标。

v1.6 版本持续优化基准测试体验,更新了关键软件组件,并提升了可用性和性能。

MLPerf Client v1.6 新特性

MLPerf Client v1.6 通过更新核心 AI 运行时和框架,提升加速支持。其中包括 Windows MLllama.cpp 的新版本,以及 Windows 平台独立硬件厂商的最新运行时优化。在 Apple 平台上,MLX with Metalllama.cpp with Metal 的更新进一步提升了 macOS 和 iPad 系统的性能与兼容性。

该版本还对图形用户界面进行了多项改进:优化启动性能以缩短应用加载时间,新增进度条提供初始化过程的清晰反馈,并从内部重构架构,提升基准测试运行的整体稳定性。

为简化重复测试流程,MLPerf Client v1.6 新增选项,可在启动基准测试时禁用下载确认提示。这让用户能一键高效运行多批次测试,提升审阅者和开发者的生产力。

这些更新进一步巩固了 MLPerf Client 作为评估各类客户端系统 AI 性能的可靠、易用基准的地位。

MLPerf Client 由领先科技公司协作开发,包括 AMDIntelMicrosoftNVIDIAQualcomm Technologies, Inc. 以及主要 PC OEM 厂商。基准测试完全免费开源,源代码可在 MLCommons GitHub 仓库查看和贡献。

下载、文档及其他信息,请访问 mlcommons.org/benchmarks/client。图形界面版本还可在 iOS 和 Mac App Store 下载,未来几天内也将登陆 Steam。

关于 MLCommons

MLCommons 是一个开源工程联盟,致力于让机器学习惠及所有人。该组织开发涵盖云、数据中心、边缘和客户端 AI 系统的领先基准测试、数据集和最佳实践。其 MLPerf 基准套件被广泛认可为机器学习性能测量的行业标准。

本文来自 MLC 博客,赢政天下(winzheng.com)进行了全文翻译。 点击这里查看原文 如果转载中文,请注明出处,谢谢支持!