一段时间以来,全球大模型训练与推理需求持续攀升,算力供给紧平衡与成本压力并存,成为云服务商、互联网平台和终端生态共同面临的现实挑战。
在此背景下,Counterpoint Research在最新报告中提出判断:面向服务器端的AI ASIC正处在放量拐点,未来数年增长或显著快于传统GPU路径,并可能在出货规模上实现对GPU的阶段性超越。
这一趋势不仅关乎芯片形态的演进,更折射出算力产业链在供需、成本与安全可控之间重新寻求平衡的过程。
从“问题”看,当前AI计算主要依赖GPU生态,虽具备成熟的软件栈与通用性优势,但也面临三重掣肘:一是供给端受先进制程、封装产能与关键部件限制,交付周期与价格波动给大规模部署带来不确定性;二是通用加速架构在特定推理场景中存在能效与成本冗余,难以满足日益精细化的业务侧算力需求;三是头部供应集中度较高,超大规模用户在采购议价、长期成本预测与供应连续性方面承压。
上述因素叠加,推动行业寻找更可控、更贴合工作负载的替代方案。
从“原因”看,AI ASIC之所以被多家企业加速布局,核心在于“定制化”带来的综合收益。
其一,ASIC可围绕特定模型结构、推理链路和数据流优化计算单元与片上互联,在相同功耗或机架资源条件下提升吞吐与能效,降低单位推理成本。
其二,通过自研或联合定制,企业可在芯片路线、供货节奏和软硬协同上形成更强掌控力,缓释外部供给风险。
其三,随着大模型从训练走向推理、从集中式走向多场景部署,推理侧对“低延迟、低成本、可规模化”的要求更突出,给ASIC提供了更适合发挥优势的舞台。
报告提到,谷歌、亚马逊等长期投入者仍在持续迭代;Meta、微软等亦推动相关芯片逐步落地;同时,字节跳动、苹果等参与者的加入,使产业从少数玩家探索走向更广泛的竞争与协作。
从“影响”看,AI ASIC增长将对产业链和市场格局产生多维扰动。
首先,服务器算力供给将从“单一主导加速器”走向“GPU+ASIC并行”的组合形态,企业可按训练、推理、检索、推荐等不同负载进行资源编排,提升数据中心整体利用率。
其次,软件生态的重要性将进一步凸显。
ASIC若要规模化,需要编译器、算子库、调度系统和开发者工具的持续完善;能够打通硬件与框架、并形成稳定开发体验的玩家更易建立黏性。
再次,供应链分工将出现新的集中与再平衡:一方面,头部云厂商凭借数据规模与研发投入具备先发优势;另一方面,定制芯片对设计服务、先进封装、验证与系统集成提出更高要求,相关合作伙伴的议价能力和份额结构将随订单变化而波动。
报告中提及,谷歌的主导地位预计延续但份额可能下滑,反映出更多玩家的进入正在稀释单一领先者的占比;在设计服务伙伴方面,博通份额或相对稳定,联发科凭借特定订单积极争取增量,而部分厂商虽出货增长但份额可能承压,显示竞争强度加大。
从“对策”看,企业在推进AI ASIC路线时需要把握三项关键。
第一,明确“适用边界”,以场景驱动而非概念驱动:训练侧对通用性与生态兼容要求更高,推理侧更适合以ASIC形成成本优势,应在业务结构与模型演进路线中确定投资重点。
第二,强化软硬协同与工程化能力:从芯片设计到系统部署涉及编译优化、算子适配、模型压缩与调度策略,若缺乏端到端能力,硬件优势可能难以兑现。
第三,构建多元供应与风险管理体系:在先进制程和封装资源紧张的情况下,提前锁定产能、优化产品迭代节奏、建立兼容多种加速器的基础设施,有助于提升抗风险能力与资源弹性。
从“前景”看,报告提出的“2027年较2024年出货增至三倍、2028年规模或超1500万颗并超过GPU”的判断,反映出市场对推理侧扩张与定制化加速的强烈预期。
未来一段时期,GPU仍将凭借成熟生态在训练与通用加速中保持关键地位,但其“一统天下”的格局可能被打破:更多企业将以“自研ASIC+外购GPU”方式构建混合算力底座,并在能效、成本和供应确定性之间寻找最优解。
同时,随着大模型应用下沉到搜索、办公、客服、内容生产和智能终端等多样场景,推理工作负载的规模化增长将进一步放大ASIC的价值。
需要注意的是,ASIC能否如期实现出货与规模优势,仍取决于软件生态成熟度、先进封装产能、以及各家模型路线与业务增长的兑现情况。
AI专用芯片市场的爆发式增长预示着全球芯片产业正在进入新的发展阶段。
从GPU一家独大到ASIC多元竞争的转变,不仅反映了技术进步的必然趋势,更体现了产业链各环节对创新和效率的不懈追求。
在这一过程中,掌握芯片设计能力、建立完整产业链的企业将获得更强的竞争力。
对于全球科技产业而言,这场芯片创新竞赛的最终胜者,将是那些既能把握技术方向,又能有效整合产业资源的企业。