美元换人民币  当前汇率7.1

SRAM能否取代HBM?英伟达澄清技术路径,强调架构灵活性为核心

* 来源 : * 作者 : admin * 发表时间 : 2026-01-13
    人工智能的迅猛发展正深刻重塑芯片底层架构,其中存储器作为连接计算单元与数据的关键桥梁,其技术路线选择直接决定了AI系统的性能边界。近期,英伟达战略性收购AI推理新秀Groq,使得静态随机存取存储器(SRAM)这一传统上仅用于高速缓存的存储介质,首次被大规模应用于主内存角色,引发业界对“SRAM是否会取代高带宽存储器(HBM)”的广泛热议。在CES 2026大会上,英伟达首席执行官黄仁勋对此作出明确回应:“如果一切都能装进SRAM,那确实不需要HBM,然而……”这一未尽之言精准揭示了当前AI硬件发展的核心现实——不同应用场景对存储性能的需求存在根本性差异,单一技术无法通吃全局。SRAM凭借纳秒级访问速度与确定性响应,在实时推理场景中展现出颠覆性潜力;而HBM则依靠大容量与超高带宽,牢牢占据AI训练市场的主导地位。两者并非替代关系,而是互补共存,共同支撑AI全生命周期的算力需求。  
具体而言,SRAM是目前速度最快的存储介质之一,其工作原理无需像动态随机存取存储器(DRAM)那样定期刷新电荷,因此数据稳定性极高,访问延迟通常仅为1纳秒左右,比HBM/DRAM的100纳秒快出一个数量级。Groq的LPU架构正是基于这一物理特性,彻底摒弃了传统图形处理器对HBM的依赖,转而采用数百MB的片上SRAM直接存放模型权重,实现高达80TB/s的片内带宽。这种设计在单请求(Batch=1)的实时推理场景中优势极为显著——例如在阿贡国家实验室的托卡马克核聚变反应堆预测任务中,Groq芯片能在0.6毫秒内完成19.3万次推理,性能较英伟达A100高出600倍以上,充分展示了传统GPU架构难以企及的实时精准能力。然而,SRAM的致命短板在于面积大、成本高且制程缩放严重受限。在台积电从5纳米推进至3nm的过程中,逻辑计算单元面积缩小约1.6倍,而SRAM单元面积仅减少约5%,导致芯片中SRAM所占比例不断攀升,制造成本急剧增加。因此,即便技术上可行,将一个千亿参数的大模型全部驻留于SRAM中,可能需要数百甚至上千颗Groq芯片,其能耗与总拥有成本将变得极其惊人。黄仁勋强调,英伟达收购Groq并非意味着全面转向SRAM路线,而是为了补齐“极低延迟、高确定性推理”的技术空白,构建更灵活的异构计算生态。他指出,数据中心的核心限制是电力而非物理空间,针对单一工作负载的极致优化若仅适用于10%的任务,反而会造成其余90%电力资源的浪费。因此,最佳策略是通过CPX等新技术,在NVLink、HBM、计算单元之间动态调配资源,实现整体能效与总拥有成本的最优化。正如他所言:“灵活性才是解决之道。”