图灵奖得主发声:HBF或成HBM之后的下一个瓶颈
* 来源 : * 作者 : admin * 发表时间 : 2026-05-03
当市场聚焦HBM供给竞争时,图灵奖得主、UC Berkeley教授David Patterson抛出新观点:AI从训练走向大规模推理后,下一个供给瓶颈或将是HBF(高带宽闪存)。这位RISC架构核心设计者于4月30日明确表示,HBF有望成为需求激增的关键内存技术。
David Patterson表示,尽管HBF仍有技术挑战,但SK海力士、闪迪等企业推动的HBF,具备“低功耗、大容量”优势,未来AI系统的核心将是数据的存储、调度与供应,内存竞争焦点将从“速度”转向“容量+效率”。
AI推理爆发,HBF需求正式浮出水面
HBF在2026年受关注,核心是AI市场重心转向推理。AI训练是让模型学习参数,而推理是模型实际执行任务、记住上下文的过程,会产生海量需反复读取更新的数据。
这些数据若全部存入HBM,成本与容量均不现实——HBM适合高速即时数据处理,不适合存储海量上下文数据。随着AI Agent、长上下文模型普及,系统需要更大的高速数据池,这正是HBF被看好的核心原因。
巨头推动标准化,2038年HBF需求或超越HBM
SK海力士与闪迪已率先推动HBF标准化与商业化:2025年8月双方签署备忘录,2026年2月联合启动HBF规格标准化联盟,依托OCP框架加速标准制定,抢占赛道先机。
闪迪计划2026年下半年推出HBF原型产品,年底启动试点生产线,2027年实现商业化(较原计划提前半年)。金正浩预测,结合AI推理市场发展趋势,2038年HBF需求或将超越HBM,若能突破技术瓶颈,将成为AI数据中心关键内存层。
AI竞赛升级:从“算得快”到“记得住、调得动”
过去AI半导体的焦点的是GPU、先进制程与HBM,HBM甚至成为判断存储厂商竞争力的核心指标。但David Patterson提醒,AI基础设施瓶颈日趋复杂,竞赛已从“算得快”转向“记得住、调得动”。
AI训练阶段重点是用高带宽内存喂饱GPU;进入大规模推理阶段,核心是解决上下文维持、低成本存储、数据高效流动等问题。未来AI内存竞赛将是内存阶层重组,HBF将填补传统存储与高带宽存储器的空白,实现容量、功耗与成本的平衡。
David Patterson表示,尽管HBF仍有技术挑战,但SK海力士、闪迪等企业推动的HBF,具备“低功耗、大容量”优势,未来AI系统的核心将是数据的存储、调度与供应,内存竞争焦点将从“速度”转向“容量+效率”。
解密HBF:不是取代HBM,而是分工协作
HBF与HBM并非替代关系,而是互补分工,核心差异在底层内存材料。HBM由DRAM垂直堆叠而成,主打高带宽,负责“快速喂数据给运算单元”,解决AI运算的“速度”问题。
HBF则由NAND Flash垂直堆叠,核心优势是低成本、低功耗、大容量,解决AI系统的“容量”问题。两者协同构建内存体系:HBM负责实时高速数据交换,HBF承担中间数据、上下文数据的存储。“HBM之父”金正浩比喻,二者如同书房与图书馆,各有侧重。AI推理爆发,HBF需求正式浮出水面
HBF在2026年受关注,核心是AI市场重心转向推理。AI训练是让模型学习参数,而推理是模型实际执行任务、记住上下文的过程,会产生海量需反复读取更新的数据。
这些数据若全部存入HBM,成本与容量均不现实——HBM适合高速即时数据处理,不适合存储海量上下文数据。随着AI Agent、长上下文模型普及,系统需要更大的高速数据池,这正是HBF被看好的核心原因。
巨头推动标准化,2038年HBF需求或超越HBM
SK海力士与闪迪已率先推动HBF标准化与商业化:2025年8月双方签署备忘录,2026年2月联合启动HBF规格标准化联盟,依托OCP框架加速标准制定,抢占赛道先机。
闪迪计划2026年下半年推出HBF原型产品,年底启动试点生产线,2027年实现商业化(较原计划提前半年)。金正浩预测,结合AI推理市场发展趋势,2038年HBF需求或将超越HBM,若能突破技术瓶颈,将成为AI数据中心关键内存层。
AI竞赛升级:从“算得快”到“记得住、调得动”
过去AI半导体的焦点的是GPU、先进制程与HBM,HBM甚至成为判断存储厂商竞争力的核心指标。但David Patterson提醒,AI基础设施瓶颈日趋复杂,竞赛已从“算得快”转向“记得住、调得动”。
AI训练阶段重点是用高带宽内存喂饱GPU;进入大规模推理阶段,核心是解决上下文维持、低成本存储、数据高效流动等问题。未来AI内存竞赛将是内存阶层重组,HBF将填补传统存储与高带宽存储器的空白,实现容量、功耗与成本的平衡。






关闭返回