伺服器快取新技术
伺服器快取新技术
SSD硬碟是以NAND Flash快闪记忆体为储存媒体,彻底摆脱传统硬碟机械构造的限制,其效能虽然还不及DRAM记忆体,但SSD的价格只有DRAM的四分之一,因此SSD硬碟开始取代传统硬碟,让硬碟不再成为效能瓶颈的众矢之的。
过去讨论到系统的效能瓶颈时,硬碟总是成为众矢之的。因为处理器随着核心数持续增加,效能不断提升,网路也从1Gb跳到10Gb,在频宽上有了大幅度的提升,唯独传统硬碟仍受制于机械式构造,在马达的转速难以再提升,以及资料读写得透过读写臂移动的限制下,I/O速度的提升有限,导致硬碟长久以来成为系统效能的瓶颈。
然而,就在SSD硬碟问世之后,这个局势峰回路转。SSD硬碟是以NAND Flash快闪记忆体为储存媒体,彻底摆脱传统硬碟机械构造的限制,其效能虽然还不及DRAM记忆体,但SSD的价格只有DRAM的四分之一,因此SSD硬碟开始取代传统硬碟,让硬碟不再成为效能瓶颈的众矢之的。
有趣的是,当硬碟的I/O处理速度变快之后,反倒是其他设备也必须提升规格才行,例如网路若还是1GbE的规格,那么网路的I/O处理速度可能就不及硬碟,反而会成为效能的瓶颈,因而必须以10GbE搭配,才可以一起发挥提升系统效能的功用。
在硬碟变快了之后,不仅是传统上系统I/O瓶颈的问题被解决了,厂商更利用SSD硬碟的特性,以其做为快取装置,建构一个分层的储存体系,提升整个系统的运作效能。
在前几期的封面故事,我们已经探讨储存设备如何结合SSD硬碟快取,当时,我们知道有些储存厂商有打算将SSD快取设备推展至伺服器端,不过因为当时厂商公布的讯息不够多,所以我们的封面故事主要就是探讨储存设备如何运用SSD硬碟,然而就在我们截稿的时候,储存厂商陆续对外透露较多关于伺服器结合SSD快取的讯息,这些有助于提升伺服器I/O的技术,未来将会影响IT架构的发展。
伺服器搭配SSD硬碟不足为奇,现在你随便都可以买到PCIe介面的SSD硬碟卡,把它插上伺服器就是一个高速硬碟了。然而EMC、NetApp等厂商正在研发的技术可不只如此,他们的伺服器I/O加速技术,可说是把分层储存架构更进一步推至伺服器端,把储存设备的快取放到伺服器里,并且使其成为储存设备可管理的一部分,如此让储存设备的快取能更接近处理器运算核心,以获得整体效能的提升。
以EMC的Lightning研发计划来说,他们打算在前端伺服器安装PCIe快取硬碟卡与特定软体,透过EMC FAST VP自动分层软体的控制,这张快取硬碟卡可与后端的EMC储存设备直接高速传输。此外,他们还将导入一项分散式快取技术,目前这项技术的细节不明,不过推测其功能是,每台伺服器里的PCIe快取硬碟卡的资料可以分享,例如某一台伺服器的快取硬碟卡里有另一台伺服器需要的快取资料,则可透过管理软体控制,在伺服器之间直接传输,而不需要再回到后端储存设备里取得。
NetApp则公布了部分Mercury Project的研发成果,他们是利用在伺服器端安装快取硬碟卡,或是以伺服器本身硬碟的储存空间,建立一个可由后端储存设备控制的区块级快取。根据NetApp初步的测试数据,这项技术可让I/O平均服务时间减少40%,伺服器存取底层磁碟的需求则减少了50%,而随机存取的速度则可提升70%以上。
当企业开始运用虚拟化之后,运算密度会大幅提升,系统I/O的负担就会越来越重,而SSD硬碟则成为解决这个问题的一个新方法。当上述这些新技术发展成熟之后,未来企业资料中心的架构亦会因此改变。