在服务器上使用SSHD(固态混合驱动器)是否明智?


8

我有一堆服务器的I / O非常重,当前使用SATA3 / SAS驱动器,但是在SATA驱动器上确实有等待I / O的痛苦,而且我刚被警告存在存在SSHD的情况,SSHD的价格与1TB相同作为我们当前使用的1TB SATA驱动器。但是,以前(直到Seagate在3月份交付了他们的第一个3.5英寸SSHD),它们似乎只为上网本/笔记本专用,这使我怀疑它们并非完全为我的笨重I / O而制造。服务器。

因此,SSHD是否可以在繁重的I / O环境(例如多个超大型高速文件传输)中使我的SATA3驱动器性能得到提高,还是最好在I / O等待时坚持使用SATA3?


2
我认为真正的问题是:您是否愿意在服务器中使用消费者驱动器?
AthomSfere

不,问题是或多或少在生产服务器上使用SSHD而不是SATA3是否明智?不管SSHD是消费类驱动器,但如果在繁重的生产环境中使用它们是明智的选择,我会坚持的。

还有其他因素-服务器故障人员(他们确实知道他们的服务器资料)可能会询问其是否受支持。其他一些建议使用PCIe SSds。
Journeyman Geek 2013年

哦,PCIe SSD看起来很棒,服务器具有“两个PCI-Express扩展插槽:(1)全长,全高插槽;(1)小尺寸插槽(支持可选的PCIx Riser卡)”,我不确定如果那会让我拥有一个或两个PCIe SSD。我想我会努力的:P

Answers:


9

这在很大程度上取决于您的工作量。您所说的混合驱动器通常只有大约8GB的SSD-如果您一次又一次地读写相同的〜8GB数据,那么您将看到SSD的性能。如果您要进行大型传输,而数据只能读取一次或两次(例如使用视频/媒体服务器),那么由于频繁的高速缓存未命中,您会更好地加强盘片存储。

SSHD非常适合台式机用户(考虑到我系统上的5TB读取请求,其中97%的存储空间是相同的32GB),但是文件服务器的使用模式往往不同。


如果您混合使用大型顺序读/写和大量随机I / O,那么建议您使用ZFS,并使用适当的磁盘和良好的SSD。

作为参考,我最近使用ZFS设置了一个5x4TB RAID阵列,它可以与用于顺序I / O的SSD完全相连(在10GB文件上平均读取450MB / s)。这进一步得到了固态硬盘作为写/读缓存的支持,从理论上讲,如果一半的工作负载来自缓存而一半的工作负载来自盘片,则理论上可以达到900MB / s至1GB / s。实际上,它与超大型SSHD相同,但是您可以使用企业级硬件对其进行自定义和构建,并在出现故障时轻松地更换各个部件。

注意:如果您将SSD用作写缓存,则应将两个单独的SSD用作镜像写缓存,以免出现故障不会丢失数据。您可以轻松地获取两个256GB SSD,将每个中的6GB用作镜像写入缓存,然后将剩余的500GB用作大型读取缓存。


因此,最好将RAID 0与多个SATA3驱动器(带ZFS)一起使用?我确实有大量的随机I / O,具有较大的顺序读/写功能。目前,我将1个OCZ和RAM用于I / O缓存

是的 您可以自己设置RAID /缓存并使用任何文件系统,我只是推荐ZFS,因为ZFS可以处理RAID和缓存,并且可以在断电和无提示损坏后保证完整性(RAID则不行)。SATA3驱动器是处理大型顺序R / W的最佳方法,并且缓存有助于捕获随机I / O,以免过多干扰SATA3驱动器。
Darth Android

0

带有(8)英特尔800 GB固态硬盘(DC S3700)并使用RAID 6的服务器将非常不错。为您提供2800驱动器的容错能力的4800 GB失败会让我充满信心...所以,是的,我会在服务器上使用SSD,但仅在RAID 6上使用。明智吗?聪明的人每天都会做出愚蠢的选择……这仅与金钱有关!


0

简而言之,如果您的文件缓存小于混合驱动器中的ssd缓存,恐怕您的服务器将无法从SSHD /混合驱动器中受益。

您的操作系统有一个文件缓存句柄,并保留文件以防止再次从磁盘读取。如果它处理的内容超过混合驱动器中ssd缓存的大小,则您需要访问的内容已经在文件缓存中。

在Windows中检查 Linux命令免费或任务管理器的文件缓存大小

它们保留的文件缓存和基于软件的混合驱动器处理文件,而基于固件的混合驱动器处理磁道扇区有一些不同。基于软件的文件将保留整个文件,即使您只需要读取文件的一部分,而固件仅保留分配给它读取的数据。

公式给出x为混合驱动器的ssd缓存大小的变量,y为访问混合驱动器的操作系统的文件缓存的变量。当x大于y时,系统应受益于混合驱动器。

更多详细信息硬盘和操作系统中“ 缓冲区和缓存”的大小问题说明了SSHD的SSD缓存大小

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.