英伟达推出开源大模型Nemotron 3 Super:瞄准多智能体瓶颈并加速产业落地

近年来,人工智能技术迅速演进,大规模智能计算需求持续攀升,但传统模型多智能体协作、长上下文处理以及计算效率上仍存在明显瓶颈。针对这些问题,英伟达发布的 Nemotron 3 Super 通过多项技术改进,给出了新的应对思路。首先,模型采用 Mamba-MoE 混合架构,用于缓解多智能体协同场景中的性能瓶颈。其 1200 亿参数规模结合 NVFP4 精度预训练,在推理速度与吞吐量上带来提升。测试数据显示,该模型在 OpenClaw 任务中的成功率达到 85.6%,与当前头部模型处于同一水平。其次,为应对上下文扩展带来的计算压力与延迟,Nemotron 3 Super 将上下文窗口提升至最高 100 万 token,以保持复杂任务中的逻辑连续性。同时,创新的 LatentMoE 架构通过优化参数加载与跨卡通信,降低多智能体应用的部署成本,提高落地可行性。此外,多 Token 预测(MTP)技术继续提升生成效率。与传统单 token 预测不同,MTP 让模型一次预测多个未来 token,有助于更好把握复杂文本结构,同时减少生成过程中的等待时间。在训练策略上,英伟达采用两阶段预训练方法,结合多样且高质量的数据,提升模型的泛化能力与准确性;后训练阶段通过强化学习进行针对性优化,进一步增强其在数学推理、软件工程等任务上的表现。这些改进不仅为开发者提供了更强的模型能力,也为智能计算在软件开发、金融分析等场景的应用拓展了空间。英伟达同步推进开源,也有望加快技术迭代与生态协作。

Nemotron 3 Super 的发布反映了 AI 发展的一条清晰路径——从单纯追求模型指标,转向围绕真实应用需求做系统性优化。英伟达在提升模型能力的同时——通过开源数据与方法的共享——为行业协同创新提供了更多基础条件。这种更开放、更面向落地的策略,将有助于推动 AI 技术更快从研究走向应用,促进产业生态的持续发展。