美元换人民币  当前汇率7.27

HBM 之父大胆猜测:NVIDIA 可能买存储器公司

* 来源 : * 作者 : admin * 发表时间 : 2025-11-04
随着人工智能从训练阶段全面迈入推理时代,产业竞争的焦点正悄然从图形处理器(GPU)向高性能存储器转移。近期,被誉为“HBM之父”的韩国科学技术院(KAIST)教授金正浩在公开节目中直言:“AI时代的主导权,正在从GPU转向存储器!”他大胆推测,英伟达为巩固其在AI领域的领导地位,未来可能收购存储器企业,潜在目标包括美光或西数(SanDisk),而非规模庞大的三星或SK海力士。
这一判断并非空穴来风。英伟达首席执行官黄仁勋上月时隔15年再度访韩,与三星电子董事长李在镕、现代汽车集团董事长郑义宣举行高层会晤,重点探讨在高带宽存储器(HBM)及“AI超级工厂”方面的深度合作。与此同时,市场对存储器的战略价值日益重视——西数股价在五日内上涨4.3%,达到199.33美元,部分原因正是数据中心对NAND闪存需求激增。
当前,AI推理面临三大核心挑战:“推不动”(输入内容过长超出处理能力)、“推得慢”(响应延迟)、“推得贵”(计算成本高昂)。而解决这些问题的关键,正落在存储器性能上。AI系统对存储的需求已形成清晰分层:HBM用于存放实时高频数据(容量10GB至百GB级),支撑即时对话;DRAM作为短期记忆(百GB至TB级),处理多轮交互;而SSD则承担长期知识库功能(TB至PB级),用于存储历史对话、检索增强生成(RAG)语料等温热数据。
尤其在大语言模型推理过程中,“KV缓存”(Key-Value Cache)机制成为提升效率的核心。该机制将已处理词元的关键信息(Key与Value)暂存于存储器中,避免每次生成新词时重复计算全部上下文,从而将推理速度提升数个数量级。可以说,KV缓存就是AI模型的“短期记忆”,直接决定了模型能否流畅应对长上下文、复杂对话和深度推理任务。
正因如此,存储器在GPU封装中的价值占比和技术整合难度持续攀升。业内分析指出,英伟达若能通过投资或并购掌握存储器核心技术,将极大缓解AI系统的“内存墙”瓶颈,进一步优化端到端推理效率。尽管目前尚无确切并购动作,但机构普遍认为,此类战略举措的可能性“并非为零”。
在全球AI基础设施加速建设的背景下,算力竞争已不再局限于芯片本身,而是延伸至整个数据通路——从计算、互联到存储。谁能率先打通高性能存储与AI计算的协同瓶颈,谁就将在下一代人工智能浪潮中掌握真正的主导权。