ai算力从训练侧向推理侧跑这么快的话,相关硬件产业链肯定得迎来新一轮的价值重构啊

嘿,大家都在说2026年的GTC大会要来啦,这次的电子行业大佬们聚在一起,估计会放不少猛料。特别是在AI算力这块儿,咱们先聊聊LPU、CPO还有存储这三个关键技术。听我慢慢给你盘道。 先说说计算架构吧,现在大伙儿都盯着推理场景呢,特别是那种处理长文本、大模型的活儿。传统的GPU虽然厉害,但面对这种情况总感觉有点力不从心。这时候LPU就登场了,这玩意儿专门为了搞推理优化的,强调的是低延迟、高吞吐,对处理长长的序列特别有一套。英伟达之前不是把Groq给收购了吗?那就是在为推理侧的架构铺路呢。Groq自己做的那个LPU架构特别猛,确定性执行、简化调度再加上高带宽的数据路径,大模型的推理速度和效率直接就上来了。估计英伟达这次GTC大会上会把新一代Feynman架构拿出来秀秀,还会把LPU架构往推理加速单元里塞一塞,到时候AI的推理性能肯定又得往上提一提。 要是LPU真的在服务器上大面积用起来了,那对后面的互连要求肯定更高啊。板子得更厚点、材料得更好点,不然带宽不够或者损耗大就尴尬了。这对PCB产业来说绝对是个大机会,不管是主板还是加速卡的PCB层数和材料都得跟着升级换代。 再看看高速互连这块儿。CPO这个光电共封装的技术路子越来越顺了。以前大家用那种可插拔的光模块嘛,现在功耗和布线都太麻烦了。CPO就是把光模块和交换芯片一块儿封进去,信号在芯片边上就直接转换了,电信号跑的路程短了,功耗和损耗自然就少了。特别是随着AI算力集群越来越大,传统方案根本扛不住这架势。你猜怎么着?CPO可能会分阶段来搞:先在数据中心那种Scale-out网络里落地缓解压力;等技术更成熟了,再去Scale-up的高速互连场景里大展身手。英伟达在这一块儿也布局挺久的了,市场都猜它这次会上一款针对Scale-up的CPO解决方案呢。 最后不得不提一下存储了。AI算力这么猛涨,对高带宽存储的需求简直是无底洞。HBM市场现在那叫一个紧俏,下一波的HBM4肯定能在带宽、容量还有能效上有大突破,接口带宽和堆叠层数还得往上提一提。现在HBM这一块儿还是被少数几个大厂把持着呢。英伟达自己也在琢磨怎么优化推理场景下的存储架构呢,通过扩大上下文存储能力来支持更长序列的推理。 现在HBM的产能还是有点紧张的状态啊,有些高端产品订单排期都很长了。市场价格也在往上走呢。这场GTC大会肯定能看出不少门道来。LPU进来了、CPO落地了、HBM规格也升级了。这些改变不光会让AI服务器内部的计算、互连还有存储架构焕然一新,还会给上游的PCB、光模块、封装测试这些环节带来深远影响。AI算力从训练侧向推理侧跑这么快的话,相关硬件产业链肯定得迎来新一轮的价值重构啊。 这篇文章一共14页哦。要是你想要更详细的资料或者最新的动态什么的,随时找我就行!