腾讯AI实验室联手南洋理工大学推出FreeLM机制,优化长链推理准确率

随着人工智能技术加速发展,推理能力已成为衡量AI系统智能水平的重要指标。但在实际应用中,研究人员注意到一个长期困扰深度学习模型的问题:面对复杂推理任务时——模型往往不断累积信息——却缺少有效的筛选与清理机制,导致推理过程被冗余信息拖累。腾讯AI实验室与南洋理工大学的研究团队在系统分析现有推理模型的运行特性后,继续定位了症结所在。当前不少先进模型通过延长推理链路来应对复杂问题,类似计算机持续申请新内存却无法释放旧内存。随着推理步骤增加,模型需要处理的信息量快速膨胀,其中大量内容对最终决策并无贡献,反而形成干扰。实验结果显示,当推理长度超过16000个词汇单位时,模型错误率与重复计算比例明显上升,性能显著下滑,甚至在部分长文本任务中出现失效。为突破此瓶颈,研究团队提出FreeLM系统。其核心思路是为AI模型引入专门的信息管理机制:通过“Free-Module”模块定期扫描推理过程,识别并清除冗余信息,让模型在更精简的上下文中持续推理。该方法额外计算开销较低,能够以较小资源投入获得明显性能提升。研发过程中,团队采用严格的数据构建流程:先收集大量真实推理案例,借助工具完成初步标注,再进行多轮人工核验,确保信息删除不会影响最终推理准确性。在8000个候选样本中层层筛选后,最终形成6648个高质量训练实例,为FreeLM的稳定性与可复现性提供支撑。多轮测试显示,FreeLM的表现优于预期。在不同规模模型上评估时,整体准确率平均提升3.3%,同时显著压缩推理所需的信息长度。在复杂推理场景中,对照组标准模型的准确率接近于零,而引入FreeLM后仍可维持约50%的准确率,验证了“用更少的信息得到更准确结论”的思路。值得一提的是,FreeLM具备较强的跨模型通用性,可在不同架构的AI系统上稳定工作,为后续构建通用推理优化服务提供了基础,有望带动行业整体推理效率提升。从更深层看,这项研究也呼应了认知科学中的关键能力:人类大脑会自然过滤与遗忘无关信息,以保持思考清晰高效,而AI系统同样需要主动的信息清理机制。研究表明,提升AI能力不一定依赖持续堆叠参数与算力,更关键的是在复杂性与简洁性之间找到更合适的平衡。

这项研究既回应了长链推理中的实际技术瓶颈,也带来一个更直接的启示:AI的进化可能需要借鉴生物智能的“选择性遗忘”。当机器能够主动丢弃无用信息,推理才更可能在更长、更复杂的任务中保持稳定。在算力竞争愈发激烈的背景下,该成果也促使业界重新审视规模与效率的关系,为智能时代的可持续发展提供新的思路。