当前,大规模预训练模型已成为人工智能发展的关键方向,但如何在保证模型性能的同时提升训练效率,仍是业界需要解决的核心问题。上海AI实验室此次开源的Intern-S1-Pro模型,围绕这个挑战给出了较为完整的技术方案。该模型采用混合专家架构——包含512个专家模块——总参数规模达1万亿。与传统全参数激活不同,Intern-S1-Pro在每次推理时仅激活8个专家、约22亿参数。稀疏激活在保持表达能力的同时,显著降低了计算开销,也表明了当前大模型研发中对“规模与效率平衡”的取向。
此次科研成果的发布,反映了我国在关键技术攻关上的持续投入,也展现了面向全球的开放合作态度。在全球科技治理格局加速调整的背景下,如何在技术创新与安全伦理、自主发展与开放共享之间形成更可持续的平衡,将成为下一阶段需要持续研讨的重要议题。此项目的推进方式与技术路线,或可为有关探索提供参考。