周跃峰:开源盘古大模型,让模型百花齐放才是常态

3月20日,在华为中国合作伙伴大会2026现场,周跃峰作为华为云CEO分享了一个重磅信息:把自家自研的盘古大模型全面开放,把包含718B到1B在内的全尺寸版本矩阵都给了用户。他告诉大家,公有云才是企业搞AI的最好选择,能把未来的生产力给承载起来。面对现在大家都在抢着发模型的状况,周跃峰提出了一个办法:开源开放是根基,“后训练”才是让模型变得不一样的关键,这样才能给企业提供有竞争力的AI方案。 他还说,智能时代肯定不会被一个模型给统治住了,多个模型百花齐放才是常态。为了帮助大家破除技术障碍,华为云一直坚持开放的理念,把业界的好东西都汇聚过来。在开源这块儿,华为云把整个盘古大模型都放出来了,不管是要处理复杂业务的高性能场景,还是要在手机上部署轻量化的情况,都能满足。门槛被大大降低了,用起来和二次开发都更方便了。 在生态这一块儿,华为云搭建了个大广场,现在已经能支持160多个顶尖的SOTA模型了,DeepSeek、Qwen还有智谱GLM这些主流的好货都有。一旦新模型发布,华为云就能做到Day 0接入,像智谱GLM-5就是当天就上了线的。 进入智能体时代后,模型之间竞争的胜负手就转变成了后训练的能力。周跃峰觉得后训练就是要让通用的大模型吃透行业知识和特定业务场景的知识。为此他们打造了后训练套件,把CPT、SFT还有RL这些流程都覆盖了进去。 有了这些工具就能在顶尖基础模型上灌注行业知识、鸿蒙编码能力还有昇腾算子优化这些东西。这样不仅能提升模型的精度和鸿蒙的适配性,还能让昇腾的算力运行得更高效。最终目标就是帮企业建立起那种独一无二的、可以大规模落地的核心竞争力。