MLCommons®,作为行业标准 MLPerf® 基准测试背后的开源工程联盟,今天宣布发布 MLPerf Client v1.6,这是评估个人电脑 AI 性能的基准测试套件的最新版本。
MLPerf Client 用于衡量从笔记本电脑、台式机到工作站等 PC 在本地运行 AI 工作负载(如大型语言模型 LLM)的效果。通过模拟真实生成式 AI 任务,包括文本摘要、内容创作和代码分析,该基准提供响应速度和吞吐量等清晰、标准化的指标。
v1.6 版本持续优化基准测试体验,更新了关键软件组件,并提升了可用性和性能。
MLPerf Client v1.6 新特性
MLPerf Client v1.6 通过更新核心 AI 运行时和框架,提升加速支持。其中包括 Windows ML 和 llama.cpp 的新版本,以及 Windows 平台独立硬件厂商的最新运行时优化。在 Apple 平台上,MLX with Metal 和 llama.cpp with Metal 的更新进一步提升了 macOS 和 iPad 系统的性能与兼容性。
该版本还对图形用户界面进行了多项改进:优化启动性能以缩短应用加载时间,新增进度条提供初始化过程的清晰反馈,并从内部重构架构,提升基准测试运行的整体稳定性。
为简化重复测试流程,MLPerf Client v1.6 新增选项,可在启动基准测试时禁用下载确认提示。这让用户能一键高效运行多批次测试,提升审阅者和开发者的生产力。
这些更新进一步巩固了 MLPerf Client 作为评估各类客户端系统 AI 性能的可靠、易用基准的地位。
MLPerf Client 由领先科技公司协作开发,包括 AMD、Intel、Microsoft、NVIDIA、Qualcomm Technologies, Inc. 以及主要 PC OEM 厂商。基准测试完全免费开源,源代码可在 MLCommons GitHub 仓库查看和贡献。
下载、文档及其他信息,请访问 mlcommons.org/benchmarks/client。图形界面版本还可在 iOS 和 Mac App Store 下载,未来几天内也将登陆 Steam。
关于 MLCommons
MLCommons 是一个开源工程联盟,致力于让机器学习惠及所有人。该组织开发涵盖云、数据中心、边缘和客户端 AI 系统的领先基准测试、数据集和最佳实践。其 MLPerf 基准套件被广泛认可为机器学习性能测量的行业标准。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接