讲真,在AI推理这事儿上,爱集微VIP频道这次出手直接把关键搞明白了。HBF这玩意儿,就是为了把HBM干掉,好帮咱们解决AI推理的成本难题。你看现在AI推理要落地赚钱,核心就是得找个办法,既能高效率地处理海量请求,又不能太贵。传统的存储方案在带宽和成本上都遇到了瓶颈,所以这个专为AI推理而生的HBF高带宽闪存就来了。它的特点就是大容量、高带宽、还便宜,正好能打破那个被称作“内存墙”的限制,接在HBM和SSD之间,成了下一代核心方案。 这份元富投顾的报告太详细了,把整个AI推理时代存储产业的供需情况都给盘清了。你看现在这供需关系有多紧张:DRAM被HBM抢走了好多产能,供给只长了19%;NAND Flash那边厂家又在减产保守投资,也只涨了20%。再看需求端,服务器市场直接成了大头,2026年要吃掉DRAM需求的66%,还有NAND的38%,加上几大云服务提供商狂砸钱投硬件,缺口自然就出来了。 价格这是要疯涨啊!2025年下半年到现在,DRAM现货价最高涨了600%,NAND也涨了500%多;合约价也是一路走高,四季度涨了45-50%和33-38%。照这个架势看,2026年供需失衡还得继续。具体算下来,DRAM供给19%,需求27%,缺口有-9.7%;NAND供给20%,需求也是20%,缺口是-6.9%。 那HBF到底有多强?它就是NAND版的HBM,专门为了解决“内存墙”问题。比起HBM,它有三大优势:单颗芯片就能塞下512GB甚至4TB的内容;成本是HBM的八分之一到十六分之一;虽然速度慢点(微秒级),但SanDisk做过测试,跑405B参数的Llama 3.1模型时,只要不计较容量大小,它跟HBM的带宽差距也就只有2.2%。 报告里还用了个生动的比喻来解释它们的关系:GPU就像顶尖学者;HBM好比书桌上的书架,拿起来快但架子有限;HBF就是私人图书馆;SSD或硬盘就是公共图书馆。这种分层存储的玩法,能让系统在成本和效率之间找到平衡点。报告特别强调了一点:HBF不是要去取代HBM,而是要跟它互补。训练数据跑得快的活儿交给HBM干;海量的推理数据则交给HBF来存。 现在最积极搞研发的是SanDisk和Hynix。估计到了2026年下半年就能拿样品出来了;到了2027年就能大规模量产了。 作为爱集微VIP频道的会员你可太值了!咱们这儿有超过2万份的深度报告和分析文章每天都在更新;每周都有几百篇新内容出来紧跟热点;不管是技术变化还是市场动态、产业链布局,咱们都能给你梳理清楚。我们坚持不收二次费也不设分级限制,你只要注册一次账号就能把全平台的内容都看个遍。 现在限时优惠通道开着呢!你可以先花9.9元体验一个月;也可以买张19.9元的月卡灵活应付短期高强度需求;要是想按部就班地把握产业脉搏可以选54.9元的季卡;做长期投资的朋友最划算的就是199元的年卡。 赶紧注册个账号搜一下《HBF在AI推理市场扮演的角色》进去看吧!这里面的逻辑和投资机遇都太关键了!