2026年lpu 出货量将翻十倍,英伟达2027年将量产

嗨,大家好,2026年的GTC大会马上就要开幕了,这次AI界的盛会大家千万别错过!我有个好消息要给大家分享。最近,郭明錤分析说,英伟达投资了Groq之后,对LPU的出货量做了很大调整。预计到了2026年和2027年,英伟达的LPU年出货量就把以前的翻了十倍多,能达到400万到500万颗。特别是在2026年,LPU的出货量会占总出货量的30%到40%,而2027年则会达到60%到70%。 这么多的出货量从哪里来?主要有两个原因。第一,LPU跟英伟达的CUDA生态系统无缝整合,给开发者带来了极大便利。开发者不用再为开发和部署发愁了。第二,AI智能体、实时交互等应用越来越多,对超低延迟推理需求大增。这些应用都需要快速响应和处理数据,LPU正好能满足这个需求。 为了保持竞争力,英伟达还打算给机柜里的LPU数量升级。原来一个机柜才放64颗LPU呢,现在要提升到256颗!新架构的机柜预计在2026年底到2027年初就会量产。而且它们每年的出货量也很可观,2026年大概能给300到500台机柜供货,2027年能供应1.5万到2万台机柜。 这个消息对整个行业影响都很大啊!特别是对沪电股份这样的PCB供应商来说意义非凡。沪电股份参与了LPU机柜使用的M9材料研发和测试,这次还引入了三家CCL供应商(其中两家是中国厂商),打破了以前台光电一家独大的局面。这个时候的HBM不再像以前那么重要了,取而代之的是片上大容量SRAM存储。 至于这块新技术有没有替代物呢?有人说Low Dk-2玻璃纤维或许能取代石英布。如果这个计划顺利进行,并且能在2027年下半年量产的话,这将开启AI服务器PCB材料采购新的周期。 不过大家可能会好奇,LPU到底是什么东西?其实它全称是语言处理单元(Language Processing Unit),就是专门为大语言模型推理场景定制的一种专用AI芯片。Groq公司先开发出来后被英伟达收购整合进了自己的生态体系里。它的核心特点就是只做推理不做训练。 最大亮点在于它采用片上大容量SRAM存储来替代传统GPU依赖的片外HBM。再搭配编译器静态调度技术就可以消除内存瓶颈问题了!让数据像流水线一样精准可控、大幅降低推理延迟,特别适合那些对响应速度要求极高的场景。 和GPU相比呢?它们形成了很好的互补关系:GPU负责训练模型和高吞吐量推理任务(类似重型坦克),LPU负责极低延迟推理任务(类似超音速战斗机)。两者共同支撑着AI从训练到落地应用的整个流程。 所以说,这次GTC 2026大会不仅是技术盛宴,也是行业格局重塑的关键节点!让我们一起期待更多精彩内容吧!