在人工智能技术快速演进的背景下,业界长期关注的一项难题近日取得突破。国际联合研究团队发现,当前主流大语言模型普遍存在“过度思考”现象——模型在已经得到正确结论后,仍会继续进行大量无效推理与计算。该现象不仅带来可观的全球算力浪费,还可能因反复自我验证与路径偏移,使最终答案准确率下降3—7个百分点。
从“算得更多”转向“算得更准、停得更及时”,推理效率的提升不仅是工程优化,更直接关系到人工智能应用的成本边界与可靠上限;对行业而言,建立可验证、可控的推理终止机制,可能成为推动大模型规模化落地、降低能耗并提升服务稳定性的关键一步。