问题:随着大模型训练与推理规模持续扩大,算力系统出现“算得快、喂不饱”的结构性瓶颈。尤其GPU/加速器集群中,算力密度不断提升,而数据搬运、参数访问和中间结果交换对内存带宽、容量与能效提出更高要求,存储子系统正逐渐成为影响系统吞吐与单位能耗的关键环节。 原因:一上,先进制程带来的算力增长更快,但外部存储带宽提升相对滞后,推动高带宽存储向更高引脚速率、更大堆叠层数和更先进封装演进;另一方面,头部计算平台通过软硬协同与联合设计,将加速器、内存与互连进行一体化规划,使存储产品更倾向于按平台需求定制。美光将HBM4 36GB 12H明确定位于英伟达Vera Rubin平台,显示存储厂商正更深地融入系统级生态,以缩短验证周期并把握量产窗口。 影响:其一,性能指标的跨代提升将推动数据中心硬件更新。美光披露HBM4引脚速率超过11Gb/s、带宽超过2.8TB/s,并称相较HBM3E带宽提升2.3倍、能效提升超过20%。若量产爬坡进展顺利,有望缓解高端算力集群带宽与功耗上的双重压力。其二,封装与堆叠能力成为竞争焦点。美光展示可实现16颗芯片堆叠的封装路线,并已向客户交付HBM4 48GB 16H样品,称单颗堆叠容量较36GB 12H提升约33%。在HBM产能受限、良率爬坡与测试周期复杂的情况下,谁能在先进封装、热管理与一致性控制上更快成熟,谁就更可能在高端市场获得更稳定的供货能力与话语权。其三,平台化趋势将带动“内存+存储+互连”的组合升级。除HBM4外,美光还介绍面向Vera Rubin NVL72系统及独立Vera CPU平台的SOCAMM2内存形态,强调单CPU最高可支持2TB内存和1.2TB/s带宽;在存储侧,美光称已量产PCIe Gen6数据中心级SSD,并推出面向能效与液冷环境优化的9650产品,提供最高28GB/s顺序读取吞吐与550万随机读取IOPS,同时以7600、9550等PCIe Gen5 SSD扩展客户选择。涉及的进展表明,数据中心竞争正从“堆算力”转向“提系统效率”,内存、存储和网络协同对整体性能的影响正在上升。 对策:从产业链角度看,面对HBM与高端SSD迭代加速,设备、材料、封测与系统厂商需要加强协同:一是提升先进封装与测试能力,围绕高层堆叠、微凸点/互连可靠性、散热与功耗管理,建立更可复制的量产与测试体系;二是增强标准化与平台适配的工程能力,缩短从样品到规模部署的验证周期,降低系统集成风险;三是强化供应链韧性,通过多元化供货、长期产能锁定与关键材料备份,降低高端HBM阶段性供给波动带来的影响。 前景:业内普遍认为,未来两到三年,高带宽存储的价值将从“提高峰值带宽”深入延伸到“提升系统有效带宽”,包括更高容量堆叠、更优能效曲线,以及与加速器互连/缓存体系的协同优化。随着液冷与高密度机柜加快普及,存储器与固态硬盘在功耗、散热设计与可靠性上将面临更严格要求。平台厂商与存储厂商联合定义规格的趋势预计仍将延续,并推动更多围绕“数据路径”的技术创新落地。
美光HBM4芯片实现批量出货,意味着全球AI基础设施在关键部件层面进入新一轮升级。从高带宽内存到高性能存储,美光正通过产品组合创新以及与英伟达等产业伙伴的协作,为下一代AI应用提供更扎实的底层支撑。随着应用场景扩展、需求持续抬升,存储芯片领域的技术竞速将继续加快,并推动产业在性能与能效上持续演进。