3D DRAM内置AI处理!NEO新技术可取代HBM,解决现有瓶颈
* 来源 : * 作者 : admin * 发表时间 : 2024-08-15
专注于3D DRAM、3D NAND存储器的NEO半导体公司发布了最新的3D X-AI芯片技术,旨在取代目前用于AI GPU加速器的HBM(高带宽存储器)。
据悉,这款3D DRAM内置了AI处理功能,使得处理和生成过程不需要数学运算输出。当大量数据在存储器与处理器间传输时,能够减少数据总线问题,从而提升AI性能与效率。
3D X-AI芯片的底层包含一个神经元电路层,能够处理同一芯片上300个存储器层所存储的数据。NEO半导体表示,得益于8000个中子电路在存储器中进行AI处理,该3D存储器的性能可提升100倍,存储器密度比目前的HBM高8倍。通过减少在GPU中处理的数据量,可降低99%的耗电量。
NEO半导体创始人兼首席执行官许富菖指出,由于架构和技术效率低下,目前的AI芯片浪费了大量的性能和电力。当前的AI芯片架构是将数据存储在HBM中,由GPU负责执行所有运算,这种架构将数据存储与处理分离,导致数据总线成为无法避免的性能瓶颈。当大量传输数据时,性能有限且耗电量非常高。
3D X-AI技术可在每个HBM芯片中执行AI处理,大幅减少HBM与GPU之间传输的数据量,从而提升性能并大幅降低功耗。
X-AI的容量为128GB,每个芯片可支持10 TB/s的AI处理能力。将12个裸晶(X-AI)堆叠在单一HBM封装中,可实现超过1.5 TB的存储容量和120 TB/s的处理吞吐量。
目前,许多公司都在研究能够提高处理速度和通信吞吐量的技术。随着半导体速度越来越快、效率越来越高,元件之间的数据总线将成为瓶颈。因此,这样的技术将能够让所有元件协同加速。
台积电、英特尔、铠侠等公司都在研究光学技术,以加快主板内的通信速度。通过将部分AI处理从GPU转移到HBM,NEO半导体能够降低工作量,使效率远高于目前耗电的AI加速器。
据悉,这款3D DRAM内置了AI处理功能,使得处理和生成过程不需要数学运算输出。当大量数据在存储器与处理器间传输时,能够减少数据总线问题,从而提升AI性能与效率。
3D X-AI芯片的底层包含一个神经元电路层,能够处理同一芯片上300个存储器层所存储的数据。NEO半导体表示,得益于8000个中子电路在存储器中进行AI处理,该3D存储器的性能可提升100倍,存储器密度比目前的HBM高8倍。通过减少在GPU中处理的数据量,可降低99%的耗电量。
NEO半导体创始人兼首席执行官许富菖指出,由于架构和技术效率低下,目前的AI芯片浪费了大量的性能和电力。当前的AI芯片架构是将数据存储在HBM中,由GPU负责执行所有运算,这种架构将数据存储与处理分离,导致数据总线成为无法避免的性能瓶颈。当大量传输数据时,性能有限且耗电量非常高。
3D X-AI技术可在每个HBM芯片中执行AI处理,大幅减少HBM与GPU之间传输的数据量,从而提升性能并大幅降低功耗。
X-AI的容量为128GB,每个芯片可支持10 TB/s的AI处理能力。将12个裸晶(X-AI)堆叠在单一HBM封装中,可实现超过1.5 TB的存储容量和120 TB/s的处理吞吐量。
目前,许多公司都在研究能够提高处理速度和通信吞吐量的技术。随着半导体速度越来越快、效率越来越高,元件之间的数据总线将成为瓶颈。因此,这样的技术将能够让所有元件协同加速。
台积电、英特尔、铠侠等公司都在研究光学技术,以加快主板内的通信速度。通过将部分AI处理从GPU转移到HBM,NEO半导体能够降低工作量,使效率远高于目前耗电的AI加速器。