全球人工智能存储需求迅速增长 预计到2028年将比2023年提高625倍

问题——内存需求跃升与供给约束并行,算力核心环节面临“紧平衡” 全球AI应用快速渗透的背景下,算力基础设施建设持续升温。迈克尔·戴尔日前在公开场合预测,到2028年全球AI加速器总内存需求将达到2023年的625倍。该判断指向一个现实:算力需求的增长,不仅是芯片数量的增加,更集中在高带宽内存等关键部件的容量与供给能力上。若需求继续快速上行,而产能释放相对滞后,AI产业链可能在阶段性繁荣中出现瓶颈,尤其是在HBM等高端存储环节。 原因——单卡容量提升与规模扩张叠加,叠加扩产周期与资本开支约束 从需求端看,625倍增长主要由两条主线叠加带动:一是单个加速器所需内存容量提升。以2023年前后高端产品配置为参照,单卡HBM容量约80GB,若到2028年提升至约2TB,约为25倍增长。二是AI加速器整体市场需求预计同步扩张,规模可能较2023年提升约25倍。两者叠加,直接推高总内存需求。 从供给端看,存储扩产存在明显的时间与资本门槛。业内普遍认为,新建并完成爬坡一座DRAM晶圆厂周期较长,从规划到稳定释放产能往往以年计。同时,存储行业周期波动明显。2023年左右行业景气承压,部分头部企业经营压力上升,扩产更趋谨慎,供给弹性随之减弱。代工端也存在类似约束:先进制程产能扩张受设备供给、工艺良率与资本开支节奏影响,短期内难以与需求同步增长。供需错配使AI算力核心组件更易出现阶段性紧张,价格波动与交付周期拉长的风险上升。 影响——成本、交付与产业格局或重塑,算力竞争从“芯片”延伸到“系统能力” 首先,关键部件紧缺将抬升算力建设的整体成本。对云服务商、互联网平台和大型企业而言,算力投入已从“买卡”扩展到“整机柜、整集群、整数据中心”的系统工程。内存、网络、供电与散热任何一环趋紧,都可能推高单位算力成本,影响项目落地节奏。 其次,供应链不确定性将推动采购与技术路线调整。企业可能更早锁定产能与长期协议,并通过多来源采购、平台化设计降低对单一供应的依赖;同时更强调软硬件协同效率,通过算法、编译器、并行策略、模型压缩等方式提升“每瓦每元产出”,缓解单纯“堆料式扩张”带来的边际收益下降。 再次,全球算力竞赛的焦点可能从单点性能转向系统工程能力。随着更多国家推进本国算力基础设施与数据资源体系建设,“主权算力”“产业算力底座”等概念持续升温。算力资源的可获得性、稳定性与安全性,正成为数字经济竞争的重要变量,也将带动数据中心、服务器整机、先进封装、光互连与存储技术等领域的投入与创新。 对策——以产业协同提升供给韧性,以技术创新提高资源利用效率 业内人士认为,应对潜在供需矛盾,需要供给与需求两端同步发力。 一上,产业链上游应周期波动中保持更具前瞻性的产能规划。根据HBM等关键环节,可通过工艺升级、良率提升、先进封装能力扩张,并与下游形成更稳定需求预期,提升供给韧性。对大型采购方而言,可通过长期合同、联合研发、共享测试验证等方式,减少“短期抢货”带来的非理性波动。 另一上,需求侧应更重视算力与内存的综合效率。通过训练与推理的工程优化,改进缓存与存储层级设计,强化数据治理以减少无效计算,推动硬件资源在多任务场景下的调度与复用,有助于降低对单纯扩容的依赖。同时,加快绿色数据中心建设,通过提升能效与热管理水平,为高密度集群运行提供更可持续的条件。 前景——高增长仍是主线,但“硬约束”将决定产业扩张的质量与节奏 迈克尔·戴尔认为,人工智能仍处于高增长阶段,未来智能代理等应用形态可能深刻改变企业运营模式。综合多方趋势看,企业数字化转型、云基础设施升级以及国家层面的算力布局,仍将对高端加速器与高带宽内存形成长期拉动。但同时也应看到,内存价格波动、产能释放不及预期、地缘与贸易不确定性等因素,都可能影响扩张节奏,推动市场从“追求规模”转向“追求效率与可靠交付”。 可以预期,未来数年AI基础设施的竞争,不仅是算力规模的比拼,更是供应链韧性、系统架构能力和技术迭代速度的综合较量。谁能在关键环节建立更稳固的供给体系、实现更高的资源利用率,谁就更可能在新一轮产业升级中掌握主动。

从“算力为王”到“供给为基”,产业发展正进入比拼系统工程能力的新阶段。面对可能到来的超常规内存需求增量,各方既要看到技术与市场扩张带来的机会,也要正视产能、周期与成本约束,以更稳健的投入、更高效的技术路线和更具韧性的供应体系,支撑人工智能应用走向规模化与可持续发展。