阿里云发布新一代开源大模型 技术架构革新推动人工智能效能跃升

阿里云近日上线了Qwen3.5系列的两款新模型。其中Qwen3.5-Plus定位为通用大语言模型,Qwen3.5-397B-A17B为开源旗舰产品,两款模型均支持文本和多模态任务处理。 从技术架构看,Qwen3.5系列实现了底层模型的全面升级。Qwen3.5-397B-A17B采用了混合架构设计,将线性注意力机制与稀疏混合专家模型相结合。该设计的核心优势于参数效率的提升:模型总参数量达到3970亿,但每次前向传播仅需激活170亿参数,在保持模型能力的同时显著降低了计算成本和部署难度。相比之下,Qwen3.5-Plus的部署显存占用降低了60%,推理效率大幅提升,最大推理吞吐量可提升至19倍,已经超越了参数量超过万亿的前代旗舰模型Qwen3-Max。 在能力维度上,Qwen3.5系列进行了多上增强。模型更大规模的视觉-文本语料基础上进行训练,重点加强了中英文、多语言、STEM领域和推理能力的数据积累,采用了更严格的数据过滤标准。根据官方数据,Qwen3.5-397B-A17B的综合表现已与参数量超过1万亿的Qwen3-Max-Base相当,充分说明了混合架构在参数效率上的优势。推理、编程、智能体能力与多模态理解等基准评估中表现优异。 效率提升是Qwen3.5系列的另一大亮点。新模型采用了更高稀疏度的混合专家设计,结合Gated DeltaNet与Gated Attention混合注意力机制,并进行了稳定性优化和多token预测增强。在实际应用中,Qwen3.5-397B-A17B在32k和256k上下文长度下的解码吞吐量分别是Qwen3-Max的8.6倍和19倍。与同系列的235B-A22B模型相比,新模型的解码吞吐量分别提升了3.5倍和7.2倍。 在通用性上,Qwen3.5系列通过早期的文本-视觉融合和扩展的视觉、STEM、视频数据实现了原生多模态能力,在相近规模下优于前代的Qwen3-VL模型。模型的多语言覆盖范围从119种扩展至201种语言和方言,词表规模从15万扩展至25万,在多数语言上带来了约10至60%的编码和解码效率提升,为全球用户提供了更广泛的可用性和本地化支持。 从产业影响看,Qwen3.5系列的推出反映了大语言模型发展的新方向。高效的混合架构与原生多模态推理能力为通用数字智能体的构建奠定了基础。阿里云表示,下一阶段的重点将从单纯的模型规模扩展转向系统整合,包括构建具备跨会话持久记忆的智能体、面向真实世界交互的具身接口、自我改进机制等,目标是实现能够长期自主运行、逻辑一致的系统,将当前以任务为边界的助手升级为可持续、可信任的伙伴。

大模型技术演进正在回归产业化本质:以更高效率、更强通用性、更低成本服务真实需求。面向未来,决定竞争力的不仅是模型指标的提升,更是以安全、合规、可靠为底线的系统化能力建设。只有把技术进步转化为可持续的产品与服务,才能让智能化真正成为推动高质量发展的长期动能。