问题: 随着全球人工智能竞争进入深水区,高端算力芯片已成为关键基础资源;自2022年以来,外部对先进计算芯片及有关能力的限制持续收紧,随后又对部分“特供版”产品加码约束,导致国内部分机构高端算力获取、供给稳定性和成本可控性上面临更大不确定性。算力瓶颈不仅影响模型训练进度,也可能抬高研发成本、放慢应用扩展。 原因: 从国际层面看,先进芯片、软件工具链和云端算力服务已成为科技竞争的重要抓手。相关限制的核心目的,是抬高对手的创新成本、放慢技术迭代,从而巩固既有产业优势。 从技术演进规律看,大模型能力提升长期依赖“数据—算法—算力”协同。一旦算力供给受限,创新路径就会随之调整:一上通过更高效的训练策略、模型结构与工程优化,同等算力下争取更高性能;另一上通过开源与社区协作减少重复研发,缩短迭代反馈周期。国内部分团队在资源约束下选择“以效率换规模”,正是外部压力与内在需求叠加后的结果。 影响: 其一,技术路线出现更明显分化。过去全球大模型竞争更多体现为“堆算力、拼规模”,门槛高、成本重。在算力受限背景下,训练效率、推理成本、模型压缩、并行切分等工程化创新受到更多关注——有助于打破“唯算力论”——推动行业把竞争焦点更多转向算法、系统与应用能力的综合较量。 其二,开源生态加速扩张。部分团队以开源方式发布模型与技术方案,降低开发者试用、适配和二次开发门槛,扩大技术传播范围。相较主要依赖付费接口的闭源模式,开源更容易形成开发者网络与工具链协同,提高模型在不同行业场景的适配效率,也为中小企业参与人工智能创新提供更低成本入口。 其三,市场预期与产业链逻辑受到冲击。大模型商业化的关键在于“单位智能成本”:谁能用更少算力、更低能耗实现更高质量的训练与推理,谁就更具规模化优势。一旦效率导向路线被验证,产业界将重新评估“算力护城河”的边界,推动上游硬件、云服务与下游应用共同优化成本结构,使行业投入更趋理性、可持续。 对策: 面对外部限制与竞争加剧,业内普遍认为需在“补短板”和“强生态”两端同时推进。 一是加强基础研究与工程体系建设,聚焦训练加速、并行计算、推理优化、数据治理与安全对齐等关键环节,沉淀可复用、可迁移的系统能力,降低对单一硬件条件的依赖。 二是完善开源治理与合规机制。在鼓励开放共享的同时,推进模型许可、数据来源、隐私保护、内容安全与风险评估等制度化建设,提升开源生态的可持续性与国际协作的可信度。 三是以应用牵引技术迭代。围绕制造、能源、交通、医疗、教育、政务等场景,推动模型与行业数据、业务流程深度融合,形成“用得起来—用得更好—反哺研发”的闭环,避免只追参数规模而忽视落地效果。 四是提升产业链韧性。统筹算力基础设施建设与国产软硬件适配,推进编译器、框架、算子库与系统软件协同优化,逐步形成多元供给、可替代的技术体系,增强应对外部波动的能力。 前景: 从中长期看,外部压力仍将存在,但也可能推动国内人工智能走出一条更注重效率、更强调协同创新的路线。随着算法与系统提升、开源社区加快迭代、行业应用规模化落地,大模型能力提升将不再主要依赖“更大算力投入”,而更多体现为工程组织、数据治理、场景理解与生态建设的综合实力。未来竞争的关键,不只是训练出更大的模型,更是谁能以更低成本、更高可靠性把智能能力转化为现实生产力,并在开放协作中形成可持续的创新网络。
在全球科技博弈的复杂格局中,中国企业的创新实践表明:技术封锁或许能放慢节奏,却难以压制创新本身。通过算法与工程优化缓解硬件约束、以开源推动生态共建的路径,不仅为产业升级提供了更现实的选择,也展现了技术演进的多种可能。当创新从被动应对走向主动布局,中国科技正在形成更具韧性的发展方式。