美元换人民币  当前汇率7.27

存储器三巨头抢占 HBM 技术下一代话语权

* 来源 : * 作者 : admin * 发表时间 : 2023-12-08
市场消息传出,英伟达新品发布周期从两年缩短至一年,记忆体大厂纷纷投入下一代高频宽记忆体(HBM)技术,三星、SK 海力士、美光竞争激烈,目前以 SK 海力士获得 HBM 市场主导权的声势最大,不过美光、三星也从产品策略和技术布局下手,等待弯道超车。

目前 HBM 产业现况如何?

目前 HBM 以 SK 海力士掌握话语权,2013 年首次成功研发并量产采用矽通孔(TSV)结构 HBM,到 2019 年也成功量产 HBM2E,在 HBM 市场极具优势,并保持至今,目前也是全球唯一量产 HBM3 产品的供应商。
英伟达最新 HBM 供应商新增三星的 HBM3(24GB),预定 12 月 NVIDIA 完成验证。
至于 HBM3e 进度,美光、SK 海力士和三星分别在 7、8 和 10 月提供八层(24GB)NVIDIA 样品,预期最快年底取得 HBM3e 验证结果,三大原厂均预计 2024 年第一季完成验证。
至于 HBM4 最快 2026年推出,堆叠层数除了现有 12 层,将再往 16 层发展,记忆体堆叠很可能采 2048 位元记忆体堆叠连结介面,带动“混合键合”(Hybrid Bonding)新堆叠需求。12 层 HBM4 产品将于 2026 年推出,16 层产品则 2027 年问世。
因应 HBM4 规格,记忆体三巨头有哪些新技术和路线图?

SK 海力士
对于下一代 HBM 技术,有韩媒报导,SK 海力士准备首次采用“2.5D 扇出”(Fan out)封装,以提高性能、降低封装成本。由于 2.5D 扇出封装技术从未用于记忆体产业,大都用于先进半导体制造,因此韩媒认为“有望彻底改变半导体和代工产业”。
2.5D 扇出封装技术是将两个 DRAM 晶片横向排列,再像晶片一样组合,因为晶片下面没添加基板,能使晶片更薄,安装在 IT 设备时的晶片厚度能大幅减少。同时,这项技术能跳过 TSV 制程,提供更多 I/O 数量并降低成本。SK 海力士最快明年公开采用这种封装方式的研究成果。
按照先前计划,SK 海力士最早 2026 年量产第六代 HBM(HBM 4),也积极研究“混合键合”(Hybrid Bonding)技术,很可能会应用于 HBM 4 产品。
目前 HBM 是堆叠放置在 GPU 旁边,透过两个晶片下面的中介层( interposer)连接,不过 SK 海力士新目标是完全消除中介层,透过 3D 堆叠直接整合至晶片,因此 HBM4 目标应该是直接放置在英伟达、AMD 等 GPU 晶片,而首选代工厂将是台积电。

三星
三星正在研究中介层使用光子技术,根据三星先进封装团队首席工程师 Yan Li  在 OCP 全球峰会上谈到,HBM 技术可以透过光子学(photonics)进一步解决热量和电晶体密度问题。
根据三星介绍,目前业界透过两种方法在整合光子学和 HBM 上取得显著进步,一种是将光子中介层(photonics interposer)置于底部封装层及有 GPU 等逻辑晶片与 HBM 顶层的中间,作为底部与顶部的通讯层。不过这种方法成本高昂,不仅需要中介层,逻辑晶片和 HBM 也需要配置光子 I/O。
另一种方法是将 HBM 记忆体模组与晶片封装完全分离,更直接地连接到处理器。与其处理晶片封装的复杂性,不如将 HBM 记忆体组从晶片本身移开,透过光子技术连接到逻辑晶片。这个方法不仅能简化 HBM 和逻辑晶片的制造和封装成本,还节省电路内部数位到光学的转换,但要注意散热问题。

美光
外媒 Tom's Hardware 报导,美光 8 层 HBM3e(24GB)预计 2024 年初推出,有助于提高 AI 训练和推理性能,至于 12 层 HBM3e(36GB)晶片要等 2025 年登场。
美光与其他公司正在开展 HBM4 和 HBM4e 活动,届时所需的最高频宽会超过 1.5 TB/s。美光预期 2026~2027 年推出 36GB~48GB 的 12 层 和 16 层堆叠 HBM4,2028 年后推出 HBM4E,到那时最高频宽会超过 2+ TB/s,堆叠容量提高到 48GB~64GB。
美光与三星和 SK 海力士走得不同,美光不打算把 HBM 和逻辑晶片整合到一个晶片中,因此美厂和韩厂在技术上可能走不同的路,美光可能会告诉英伟达、英特尔、AMD,虽然他们能透过 HBM-GPU 这种晶片设计来增加速度和容量,但单独依赖同间公司晶片反而藏有更大风险。

台积电助力记忆体堆叠
目前中国台湾台积电 3DFabric 先进封装联盟已与美光、三星及 SK 海力士等主要记忆体伙伴密切合作,确保 HBM3 与 HBM3e 的快速成长,以及 CoWoS 封装与 12 层 HBM3 / HBM3e 的封装,藉由提供更多记忆体容量促进生成式 AI 发展。