HBM是什么?为何成为人工智能时代的“明星”技术?
韩国存储器大厂SK海力士日前宣布,将与台积电密切合作,共同推进下一代HBM(高带宽存储器)的研发。双方计划于2026年量产第六代HBM产品HBM4,并已签署合作备忘录(MOU)。此次合作旨在结合SK海力士的HBM产品与台积电先进逻辑工艺,为客户提供更高效、更定制化的解决方案。
随着人工智能浪潮的兴起,HBM作为一种关键技术,受到行业高度关注。究竟HBM是什么?相较传统DRAM(动态随机存取存储器),HBM有哪些显著不同?为何它会成为引领行业变革的重要力量?
什么是HBM?与传统DRAM有何区别?
简单来说,性能越强的人工智能处理器,越需要高效的存储器支持。美光副总裁普拉文·瓦伊迪亚纳坦(Praveen Vaidyanathan)指出,芯片性能与存储器的带宽和容量密切相关。随着大语言模型(LLM)参数规模的增长,高带宽存储器成为不可或缺的技术。
HBM是一种通过3D IC先进封装技术堆叠DRAM芯片制成的高带宽存储器,其原理类似于“搭积木”,通过多层堆叠提升带宽和存储容量。与普通DRAM不同,HBM并非替代技术,而是一种针对高端应用需求衍生的创新存储器。
例如,《SemiAnalysis》指出,GPT-4包含约1.8万亿个参数,仅依靠传统存储器难以满足其处理需求,而HBM凭借更大容量和更高数据传输速率,成为推动人工智能发展的理想选择。
HBM技术的三大难点
尽管HBM听起来概念简单,但其实现过程存在诸多技术挑战。瓦伊迪亚纳坦总结了三大核心难点:
厚度控制
HBM的厚度仅为人类头发的一半,每层DRAM芯片需要极其精细的加工。随着堆叠层数的增加,芯片厚度必须进一步减薄,这对存储器制造商的工艺能力提出了严苛要求。晶圆堆叠精度
HBM的封装工艺要求将多层DRAM晶圆精确对齐后再切割成芯粒,同时在硅晶圆上打穿通孔(TSV),用以导电。这些通孔的尺寸略大于细菌,工艺精度稍有偏差,就可能导致产品失效。散热问题
HBM通过将存储器和处理器(包括CPU和图形处理器)封装在同一芯片中,大幅缩短两者之间的距离。但这也增加了散热难度,封装技术的重要性因此进一步凸显。
HBM的应用领域:从AI服务器到自动驾驶
由于技术门槛高、成本昂贵,HBM自2013年问世以来,最初并未被广泛采用。然而,随着人工智能的普及,HBM逐渐成为行业核心技术。目前,AI服务器是HBM最大的市场。例如,英伟达的AI处理器对HBM需求巨大,其最新款HBM3e已通过验证,并有传闻称英伟达已支付数亿美元预付款以确保供应。瓦伊迪亚纳坦表示:“AI服务器所需的存储器容量是传统服务器的5至6倍。”
未来,HBM在自动驾驶领域也将扮演重要角色。Mordor Intelligence的报告显示,自动驾驶和ADAS(高级驾驶辅助系统)的发展正在显著推动HBM需求增长。预计未来10年,AI服务器与车载应用将持续拉动HBM市场。
HBM市场竞争:技术与市场份额之争
HBM的兴起引发存储器巨头之间的激烈竞争。目前,SK海力士以近50%的市场份额居首,三星和美光分别占据约40%和10%。三星计划在2024年扩大HBM产能以追赶海力士,而美光则希望通过技术创新实现市场突围。
在制程工艺方面,HBM与芯片制造类似,采用代际迭代。当前,海力士与美光的HBM3e产品采用1β制程,相较三星的1α制程更为先进。这一技术优势可能成为美光抢占市场的重要利器。
然而,HBM最大的挑战依然是良率问题。尽管HBM售价高出DRAM十倍以上,其商业潜力吸引存储器厂商不断攻克良率难题。预计2026年推出的下一代HBM产品将采用16层堆叠技术,对先进封装和良率提出更高要求。
未来展望:HBM如何改变存储器市场格局?
随着人工智能技术的不断发展,存储器的重要性日益凸显。HBM作为一项颠覆性技术,不仅引领存储器行业的全新战局,还可能重塑全球存储器市场格局。在AI时代,高带宽存储器将成为驱动技术进步的重要引擎,推动存储器从传统的“配角”转变为核心角色。