美元换人民币  当前汇率7.27

三星半导体新一代 HBM-PIM 记忆体整合 AI 功能,将可减少不必要的数据传输行为

* 来源 : * 作者 : admin * 发表时间 : 2021-02-19
虽然 AMD 曾尝试在消费级 VEGA GPU 产品导入 HBM 记忆体,不过毕竟受限高成本以及在消费应用意义不大,最终进入 RDNA 世代后又改为主流的 GDDR 记忆体,但当前 HBM 记忆体在运算级领域仍是相当热门的,例如 NVIDIA 的 A100 GPU 或是富士通的 A64FX 皆搭配 HBM2 记忆体,而三星半导体宣布在新一代的 HBM-PIM 记忆体导入 AI 运算,强化数据中心、 HPC 的大规模数据处理。
 HBM-PIM 的 AI 并非用于系统 AI 运算,而是做为减少数据在记忆体之间不必要的存取与移动行为

三星强调其 HBM-PIM 是业界首创针对 AI 工作负载开发的可程式化 PIM 解决方案,并且不需要进行软硬体变更,可直接进行使用。 HBM-PIM 旨在减少现行依据 von Neumann 架构使数据在记忆体之间频繁传输造成的系统缓慢, HBM-PIM 透过在储存子单元整合针对 DRAM 最佳化的 AI 引擎,事先针对资料传输进行处理,减少数据的不必要传输,相较当前三星 HBM2 Aquabolt 能提升一倍的性能,同时减少 70% 耗电。
三星当前已经将 HBM-PIM 提供给 AI 解决方案伙伴于 AI 加速器进行测试,预计 2021 年初完成验证。