要使1Gbps网络连接饱和,需要多少个并行驱动器,配置有RAID 0条带化(nX顺序读/写优势)并且位于硬件RAID控制器(133MHz的PCI-X)后面?那2Gbps呢?
设置小型NAS时,网络连接是一个大变量。一个人可以使用一个千兆以太网连接,将多个绑定在一起(使用受管网络交换机),或者使用更昂贵的光纤通道选项。坚持使用CAT5e / 6电缆可将成本降低到我可以管理的水平,但是我仍然希望在不引入浪费的瓶颈的情况下最大程度地利用它。
参考希捷的外部传输速率(突发)约为300MB / s(2.3Gbps)的示例,以及storagereview.com的3TB评论之一显示,持续传输速率约为110MB / s(0.9Gbps),我必须得出以下结论:通过1Gbps线路访问时,在多个并行驱动器之间设置RAID条带化没有明显的性能优势。单个驱动器使用近1Gbps的带宽。
当然,数据必须跳几圈才能从驱动器控制器连接到电缆,从而降低了有效的服务器传输速率。RAID控制器引入了更多开销,尽管并行驱动器弥补了不足,但还有什么余地?因此,我的问题。
请注意,一个133MHz的PCI-X接口可支持多达8.5Gbps的[维基百科]。尝试忽略条带大小,协议开销等之间的差异,并仅从硬件角度来看问题。
示例答案:
我的NAS主板“ A”(具有“ B” GB的RAM)和[133MHz PCI-X] RAID控制器卡“ C”的最大吞吐量约为7Gbps。限制因素是以太网控制器。我观察到,使用iperf时,只有2个驱动器/ 3个驱动器使1Gbps / 2Gbps的连接饱和,大约为100MBps / 200MBps。