hbf在ai 推理市场扮演的角色

要是想在AI大模型规模部署的商业比拼里拔得头筹,HBF这种专门搞推理的新存储技术得赶紧拿出来。以前光靠传统存储那点带宽和成本简直就是个大窟窿,现在这HBF出来把这事给平了。它容量大、速度快又不贵,正好能接住HBM的茬儿,再接上固态硬盘,变成了新一代的核心方案。 爱集微VIP最近请元富投顾搞了个《HBF在AI推理市场扮演的角色》,里面把这行业的供需状况、技术原理和厂商布局都说透了,想了解下一代AI存储生态的朋友可得好好瞅瞅。 先看供需这块儿,明年整个存储市场的供求关系肯定是紧俏的。DRAM那边被HBM产能挤兑得厉害,HBM用的晶圆能比DDR5多两三倍,结果供给增长只有19%。NAND Flash那边的原厂也不怎么舍得投资了,产量只增长了20%。反倒是需求端全靠服务器撑着。 到了2026年,服务器吃掉的DRAM和NAND市场份额会分别高达66%和38%。全球那八大云服务商今年更是要砸下更多钱搞设备。这供需一失衡价格就飞涨,2025年下半年DRAM现货价最高涨了6倍多,NAND产品也涨了5倍以上。合约价也没歇着,2025年四季度传统型DRAM涨了45%到50%,NAND涨了33%到38%,这种涨势估计明年一季度还得接着来。 具体算下来的缺口挺大。2026年DRAM供应预估是19%、需求暴涨27%,供需缺口高达-9.7%。NAND则是供给增长20%、需求增长20%,缺口有-6.9%。 再说说HBF技术,它就是那个专门解决AI推理“内存墙”的家伙。单芯片的容量能做到512GB,目标甚至能冲到4TB,比HBM那可怜的64GB大太多了,直接就能装下整个AI模型。 最关键的是成本低多了,单位成本只有HBM的1/8到1/16。虽然存取速度慢一点(微秒级),但拿Sandisk做的模拟测试来看,在跑那个有405B参数的Llama 3.1模型时,要是不看容量这事儿只看带宽表现,HBF跟HBM的差距其实就只有2.2%,完全够用了。 至于HBF跟HBM到底啥关系?报告里举了个形象的比喻:GPU就好比顶尖学者手头的电脑;HBM像书桌上的书架(速度快但摆不下太多书);HBF像私人图书馆(书多但得跑几步去取);SSD和硬盘就像公共图书馆(虽然远但啥书都有)。这样一层一层的存储架构能让AI系统在省钱和好用之间找到最好的平衡点。 报告特别说明这俩技术不是打架的关系而是互补的。HBM主要负责那些需要高速运算的活儿(比如训练模型),HBF则专门管着海量数据的存放(比如推理阶段)。 SanDisk和Hynix现在是研发HBF最积极的两家厂商了。预计2026年下半年就能拿出样品出来,2027年就能量产开卖。 大家想看到完整的报告内容吗?赶紧注册个爱集微VIP账号就能解锁全部信息。 VIP频道简直就是您的前沿技术雷达站。在这技术变太快、全球局势天天换的时代,手里没点权威又前瞻的消息可不行。 爱集微VIP频道给您提供了一个全球报告资源库。通过“行业报告”、“集微咨询”和“政策指引”三大块内容: - 里面囤了超过2万份深度产业和技术研究报告; - 每周都会新增几百篇最新的前沿分析和技术解读; - 还能帮您梳理清楚技术怎么演进、市场怎么变、产业链怎么布局。 我们坚持“信息普惠”的原则:会员只要一次性买了VIP服务就能看平台上的所有内容;不会有什么二次收费或者分级限制的麻烦事儿。 现在限时会员通道已经开了: - 首月体验价只要9.9元; - 月卡19.9元; - 季卡54.9元; - 年卡199元。 注册完爱集微VIP账号之后,在VIP频道搜索“HBF在AI推理市场扮演的角色”就能进报告库看完整版了。这能让您深入理解AI推理时代存储技术革命的底层逻辑和投资机会,为您的战略决策提供权威的参考意见。