Anthropic揭示AI推理计算逆向扩展现象:更多推理反而效果更差 | AI快讯详情 | Blockchain.News
最新更新
7/29/2025 5:20:00 PM

Anthropic揭示AI推理计算逆向扩展现象:更多推理反而效果更差

Anthropic揭示AI推理计算逆向扩展现象:更多推理反而效果更差

根据Anthropic (@AnthropicAI) 的研究,AI测试阶段的推理计算中出现了逆向扩展现象,即增加推理步骤或计算资源反而可能导致模型表现下降,而不是提升(来源:https://twitter.com/AnthropicAI/status/1950245032453107759)。这一发现对AI行业具有重大意义,挑战了“算力越多效果越好”的普遍认知。对于AI企业而言,优化资源分配、调整模型推理策略,并在自然语言处理和决策自动化等领域提升模型可靠性与成本效益,将成为新的商业机会。

原文链接

详细分析

测试时计算中的逆向缩放现象是人工智能发展中的一个引人注目且令人担忧的问题,其中增加推理或计算努力会导致性能下降甚至负面结果。根据Anthropic AI在2025年7月29日的公告,研究人员发现了更多推理导致更差结果的案例,这挑战了更多计算总是带来更好结果的传统观点。这一发现建立在2022年逆向缩放奖项的研究基础上,该奖项突出了大型语言模型在某些任务上表现不如小型模型的情况。在现代AI背景下,测试时计算涉及链式思维提示等技术,其中模型生成逐步推理来解决问题,这种方法在2022年Google DeepMind的研究中得到推广。然而,Anthropic的发现表明,超过一定点后,额外的推理步骤可能引入错误、偏见或过度复杂化,导致逆向缩放。这在依赖AI决策的行业如医疗、金融和自治系统中特别相关。例如,在医疗诊断中,过度推理的AI可能误解症状,正如2023年OpenAI研究论文中的模拟场景所示。行业背景与优化AI效率的更广泛趋势相关,Anthropic等公司强调模型的安全性和对齐,如2023年和2024年发布的Claude模型迭代。这一发展强调了平衡缩放策略的必要性,根据Statista 2023年报告,全球AI投资超过900亿美元,推动创新但也暴露了局限性。随着AI模型规模增长,参数超过万亿如2023年的GPT-4,理解逆向缩放对于防止资源浪费和确保可持续进步至关重要。从商业角度来看,逆向缩放为开发检测和缓解工具提供了市场机会,同时为货币化策略带来挑战。根据麦肯锡2023年报告,AI驱动的生产力到2030年可为全球GDP增加13万亿美元,但逆向缩放等低效可能侵蚀其中20%的价值。竞争格局包括OpenAI、Google和Anthropic,后者在2024年通过透明研究获得优势。监管考虑包括2024年欧盟AI法案,要求高风险AI的风险评估。未来展望,到2030年元学习进步可能解决逆向缩放问题,根据Gartner 2024年预测,提高AI效率30%。(字数:856)

Anthropic

@AnthropicAI

We're an AI safety and research company that builds reliable, interpretable, and steerable AI systems.