韩国专家展望未来:HBF或成AI时代新宠,与HBM共促存储技术飞跃
* 来源 : * 作者 : admin * 发表时间 : 2025-09-11
据韩国媒体报道,韩国科学技术院(KAIST)电机工程系教授Kim Joung-ho(在韩国被誉为“HBM之父”)表示,高频宽闪存(High Bandwidth Flash,简称HBF)有望成为下一代人工智能时代的重要存储器技术。HBF将与高频宽存储器(HBM)并肩前行,共同推动芯片产业的发展。
HBF的设计理念与HBM相似,都是通过硅穿孔(TSV)技术实现多层芯片堆叠连接。不同之处在于,HBM以DRAM为核心,而HBF则采用NAND闪存进行堆叠。HBF具有“容量更大、成本更具优势”的特点。尽管NAND的速度不如DRAM,但其容量往往高出10倍以上。如果以数百层乃至数千层的方式堆叠,将能有效满足AI模型对大规模存储的需求,有望成为NAND版本的HBM。
当前,生成式AI模型正在迅速扩张,单一模型的输入token已达百万级别,处理过程需要TB级数据。在每秒数千次的读写过程中,如果存储器带宽不足,就会出现瓶颈,导致如ChatGPT、Google Gemini等大型语言模型(LLM)的响应速度显著下降。
Kim Joung-ho强调,这种限制源于现行的冯诺依曼架构,由于GPU与存储器是分离设计,数据传输带宽决定了性能上限。“即便将GPU规模扩大一倍,如果带宽不足也毫无意义。”
他预测,未来的GPU可能会同时搭载HBM和HBF,形成互补结构:HBM作为高速缓存,负责实时运算数据;而HBF则承担大容量存储,直接存放完整的AI模型。这有助于突破存储器瓶颈,使GPU能够处理更庞大的生成式AI任务,甚至包括长视频等复杂内容。Kim Joung-ho指出:“未来的AI不仅限于文字与图像,还将能够生成如电影般的长片,届时所需的存储器容量将是现有水平的1000倍以上。”
这一前景预示着,在不久的将来,随着HBF技术的成熟,AI领域将迎来新的变革,为人们带来更加丰富和高效的智能体验。对于追求高性能计算的企业和个人来说,这是一个值得期待的技术进步。
HBF的设计理念与HBM相似,都是通过硅穿孔(TSV)技术实现多层芯片堆叠连接。不同之处在于,HBM以DRAM为核心,而HBF则采用NAND闪存进行堆叠。HBF具有“容量更大、成本更具优势”的特点。尽管NAND的速度不如DRAM,但其容量往往高出10倍以上。如果以数百层乃至数千层的方式堆叠,将能有效满足AI模型对大规模存储的需求,有望成为NAND版本的HBM。
当前,生成式AI模型正在迅速扩张,单一模型的输入token已达百万级别,处理过程需要TB级数据。在每秒数千次的读写过程中,如果存储器带宽不足,就会出现瓶颈,导致如ChatGPT、Google Gemini等大型语言模型(LLM)的响应速度显著下降。
Kim Joung-ho强调,这种限制源于现行的冯诺依曼架构,由于GPU与存储器是分离设计,数据传输带宽决定了性能上限。“即便将GPU规模扩大一倍,如果带宽不足也毫无意义。”
他预测,未来的GPU可能会同时搭载HBM和HBF,形成互补结构:HBM作为高速缓存,负责实时运算数据;而HBF则承担大容量存储,直接存放完整的AI模型。这有助于突破存储器瓶颈,使GPU能够处理更庞大的生成式AI任务,甚至包括长视频等复杂内容。Kim Joung-ho指出:“未来的AI不仅限于文字与图像,还将能够生成如电影般的长片,届时所需的存储器容量将是现有水平的1000倍以上。”
这一前景预示着,在不久的将来,随着HBF技术的成熟,AI领域将迎来新的变革,为人们带来更加丰富和高效的智能体验。对于追求高性能计算的企业和个人来说,这是一个值得期待的技术进步。