Claude Opus 4.7 Smoke评测主榜暴跌9.6分:退化信号还是抽签闹剧?
Claude Opus 4.7在今日Smoke评测中主榜暴跌9.6分,代码执行维度从100分跌至75分,引发退化疑虑。但材料约束升至85.8分,工程判断(侧榜)大跌20分。分析显示,这或是抽签波动,而非真实退步,诚信评级仍为pass,无需过度警戒。
真机实测,数据说话。我们用严谨的方法论评测AI大模型、智能硬件与前沿技术,只为给你最客观的参考。
Claude Opus 4.7在今日Smoke评测中主榜暴跌9.6分,代码执行维度从100分跌至75分,引发退化疑虑。但材料约束升至85.8分,工程判断(侧榜)大跌20分。分析显示,这或是抽签波动,而非真实退步,诚信评级仍为pass,无需过度警戒。
WDCD守约测试试点揭晓:Gemini 3.1 Pro与Qwen3 Max并列第一(65.00分),Grok 4垫底(42.50分)。头部梯队稳健,R3崩溃率高达69.1%。Gemini系列迭代提升明显,Grok大跌7.5分,凸显AI守约能力巨大差距。
Gemini 2.5 Pro在今日Smoke评测中主榜得分从74.00升至87.54,诚信评级从fail转为pass,但工程判断(侧榜)暴跌28.4分至30.00。分析显示,这或是抽签波动而非真实退化,但需警惕潜在不稳定性。核心维度材料约束提升9分,代码执行维持满分。
横向对比赢政指数、SuperCLUE、OpenCompass、C-Eval 四大中文AI评测基准,从代码执行、长文档理解、诚信检测、约束衰减四个维度分析各自优劣。
在同一道SQL题“连续登录天数”中,11个AI模型表现分化:豆包Pro、文心一言等8款满分100分,DeepSeek V4 Pro、GPT-o3等3款0分。分析揭示,成功者巧用ROW_NUMBER()分组,失败者语法或逻辑崩盘,凸显代码执行能力的边界。
WDCD的意义不只在榜单分数,而在揭示行业盲区。Run #105中110个案例有59例完美开局最终溃退,Q239更是11/11全军覆没。没有模型R3满分,行业一直在测量智力却忽略了纪律,WDCD填补了多轮行为一致性这个关键评测空白。
WDCD三轮衰减实测:R1确认率95%,R3诚信率仅29%,330次施压有209次完全崩溃。Grok 4 R3崩溃率高达86.7%,连Claude Sonnet 4.6也在只读账号、内存限制等约束下当场翻车。嘴上答应身体诚实,是大模型守约测试中最普遍的病。
赢政指数全新维度 WDCD 首轮揭幕:11 款顶级大模型在 330 次三轮施压测试中,R3 崩溃率高达 63.3%,全局诚信率从 95% 暴跌至 29%。Claude Opus 4.7 以 67.5 分登顶,Grok 4 仅 48.3 分垫底——一个比智力更残酷的真相浮出水面。
在AI能力趋同的时代,守约能力(模型遵守承诺的可靠性)将成为关键指标。欧盟AI法案和中国算法治理强调合规,赢政天下(winzheng.com)的YZ Index WDCD测试率先量化此维度。企业选型将从跑分转向可控性,预测1年内主流评测跟进。
AI评测排行榜充斥虚假繁荣:AI自评、假跑代码、单次排名和赞助操控让99%结果不可信。YZ Index通过真跑沙箱、准确度检查、滚动均值和零AI裁判,提供无偏见评估,颠覆行业标准。
现有AI评测只测能力,却忽略守约可靠性。YZ Index的WDCD测试通过3轮设计和30道企业场景题,填补空白,透明判分揭示AI抗压与遗忘问题。深度解读其创新价值,帮助企业选可靠AI。
赢政指数WDCD首轮测试揭晓:Qwen3-Max以66.67分领跑,Claude系列紧随其后。分析聚焦压力下模型妥协与R3诚信轮衰减规律,揭示AI守约能力的真实边界。