美光推第二代HBM3内存下单台积电
* 来源 : * 作者 : admin * 发表时间 : 2023-07-27
美光推出第二代HBM3 DRAM记忆体,记忆体容量更大且运算速度更快。
在各家业者抢攻AI市场之际,美光也不落人后,近日推出第二代HBM3 DRAM记忆体,不仅记忆体容量更大且运算速度更快,可望满足大规模语言模型(LLM)的运算需求。
业界人士透露,因应人工智慧及生成式AI趋势,美光将在台投入HBM3 Gen2先进封装研发及制造,已积极与中国台湾台积电密切合作,未来将在台湾地区加速量产并交货给客户NVIDIA。
美光表示第二代HBM3 DRAM记忆体的样品已在近日出货给少数客户。研究机构TIRIAS Research估计若客户端测试顺利,内建美光第二代HBM3 DRAM记忆体的CPU及GPU最快将在今年底或明年初问世。
回顾2013年美光首度推出HBM记忆体至今已过10年,这段期间云端市场快速起飞,不断提高资料中心的运算需求。生成式AI问世以来,大规模语言模型的运算需求快速扩大,逐渐超越记忆体升级速度。
美光虽然落后其他同业1年左右才推出HBM3 DRAM记忆体,但这次可望靠第二代产品扳回一城。第二代HBM3 DRAM记忆体不仅容量扩大50%,性能也是上一代的2.5倍,运算速度也提升50%,有助缩短大规模语言模型的训练时间。
美光上一代HBM3 DRAM记忆体已经广泛应用在众家晶片产品,包括超微、英特尔的CPU晶片,以及超微、英特尔、辉达的GPU晶片。超微针对AI市场最新推出的MI300X GPU晶片就是采用美光上一代HBM3 DRAM记忆体。
在各家业者抢攻AI市场之际,美光也不落人后,近日推出第二代HBM3 DRAM记忆体,不仅记忆体容量更大且运算速度更快,可望满足大规模语言模型(LLM)的运算需求。
业界人士透露,因应人工智慧及生成式AI趋势,美光将在台投入HBM3 Gen2先进封装研发及制造,已积极与中国台湾台积电密切合作,未来将在台湾地区加速量产并交货给客户NVIDIA。
美光表示第二代HBM3 DRAM记忆体的样品已在近日出货给少数客户。研究机构TIRIAS Research估计若客户端测试顺利,内建美光第二代HBM3 DRAM记忆体的CPU及GPU最快将在今年底或明年初问世。
回顾2013年美光首度推出HBM记忆体至今已过10年,这段期间云端市场快速起飞,不断提高资料中心的运算需求。生成式AI问世以来,大规模语言模型的运算需求快速扩大,逐渐超越记忆体升级速度。
美光虽然落后其他同业1年左右才推出HBM3 DRAM记忆体,但这次可望靠第二代产品扳回一城。第二代HBM3 DRAM记忆体不仅容量扩大50%,性能也是上一代的2.5倍,运算速度也提升50%,有助缩短大规模语言模型的训练时间。
美光上一代HBM3 DRAM记忆体已经广泛应用在众家晶片产品,包括超微、英特尔的CPU晶片,以及超微、英特尔、辉达的GPU晶片。超微针对AI市场最新推出的MI300X GPU晶片就是采用美光上一代HBM3 DRAM记忆体。
上一条: 三星Q2利润暴跌95%,计划今年继续削减内存产量
下一条: 南亚科、威刚 喊记忆体产业已筑底