谜底揭晓:Anthropic称Claude性能下降或因调整
几周来,越来越多的开发者和AI重度用户声称,Anthropic的旗舰模型正在失去其优势。GitHub、X和Reddit上的用户报告了一种他们称为“AI缩水通胀”的现象——即感知到的性能下降,Claude似乎更难进行持续推理,更容易产生幻觉,并且在使用token方面越来越浪费。批评者指出,模型的行为发生了可衡量的变化,声称该模型已经从“研究优先”的方法转变为一种更懒惰的“编辑优先”的风格,不再值得信赖用于复杂的工程任务。尽管该公司最初反驳了“削弱”模型以管理需求的说法,但来自知名用户和第三方基准测试的日益增多的证据造成了巨大的信任差距。
今天,Anthropic直接回应了这些担忧,发布了一份技术分析报告,指出了导致报告质量问题的三个独立的产品层变更。“我们对性能下降的报告非常重视,”Anthropic就此发布的博客文章写道。“我们从不故意降低模型的性能,并且我们能够立即确认我们的API和推理层没有受到影响。”Anthropic声称,通过恢复推理努力的更改和冗长提示,并修复版本v2.1.116中的缓存错误,他们已经解决了这些问题。
日益增多的性能下降证据
这场争议在2026年4月初获得了动力,由开发社区的详细技术分析所推动。AMD AI集团高级总监Stella Laurenzo在GitHub上发表了一份详尽的审计报告,分析了6,852个Claude Code会话文件和超过234,000个工具调用,显示性能较她之前的使用有所下降。她的研究结果表明,Claude的推理深度急剧下降,导致了推理循环,并倾向于选择“最简单的解决方案”而非正确的方案。
这种个人经历的挫折感…
关注微信号:智享开源 关注微博:IMCN开源资讯网 ,可及时获取信息
评论列表
发表评论
为你推荐

[blog_mailer_subscribe]
关注微信

还没有任何评论,你来说两句吧!