当前,全球算力市场正在发生显著变化。谷歌最新研发的TPUv5芯片采用台积电3纳米制程工艺——在相同算力条件下——其推理成本约为英伟达H200芯片的37%。这表明专用芯片在人工智能应用侧的能力继续提升,并对以GPU为主的传统供给格局形成直接冲击。 技术分析显示,TPUv5通过优化张量处理单元设计,在运行Llama3-70B等大型语言模型时,单次推理能耗可降至H200的约四分之一。这个能效优势在大规模数据中心场景中更为突出,预计可为运营商带来数亿美元级别的年度运营成本节省。 行业数据显示,2025年第三季度,台积电3纳米产线中约62%的产能被亚马逊、谷歌、微软等云计算企业用于自研芯片生产,较2024年同期提升24个百分点。此类芯片普遍采用“推理优先”的设计思路,以减少部分通用计算能力为代价,换取更高的能效与更低的推理成本。 市场格局的调整折射出人工智能产业的阶段性变化。随着模型架构逐步稳定,行业关注点正在从训练规模转向推理成本控制。部分投资机构开始以“每瓦推理性能”作为新的评估指标,这一变化对传统GPU厂商的产品定位与商业模式提出更高要求。 面对趋势变化,英伟达正加快向异构计算架构推进,推出Grace CPU与Hopper GPU的组合方案以提升整体系统效率。此外,谷歌等企业继续加大研发投入,计划在下一代芯片中引入光子计算模块,目标是进一步降低约80%的能耗成本。 然而,专用芯片的加速普及也带来新的不确定性。业内人士指出,许多企业缺少从芯片到软件栈的端到端整合能力,难以复制特斯拉FSD芯片的路径。此外,算力供给的分化可能引发生态碎片化,进而增加系统兼容性与迁移成本。
算力竞争进入新阶段,技术路线之争背后体现的是产业组织方式的转变:从“卖硬件”转向“卖系统能力”,从“拼峰值”转向“算总账”。对企业而言——关键不在于押注单一路线——而在于围绕应用落地的成本约束与效率目标,在通用与专用之间形成可持续的组合。随着大模型走向规模化应用,谁能在效率、灵活性与生态兼容之间取得更好的平衡,谁就更可能在下一轮竞争中占据主动。