您是否在服务器之间跳过机架单元?


70

在安装机架式服务器时,似乎在观念上存在很多分歧。有讨论螺纹臂和其他机架安装配件的话题,但我很好奇:

安装服务器时,是否在服务器之间留有空的机架单元?为什么或者为什么不?您是否有任何经验证据来支持您的想法?有谁知道一项研究能够最终证明一项研究是否更好?

Answers:


81

如果您的服务器使用从前到后的直通式冷却,就像大多数机架式服务器一样,留有空隙实际上会损害冷却。您不希望冷空气有任何途径到达热通道,除非通过服务器本身。如果您需要留有空隙(出于电源问题,地板重量问题等),则应使用挡板,以防止空气在服务器之间通过。


6
是的,如果您留有缝隙,则需要用面板填充它以防止出现缝隙。
托马斯

2
= 1。机架安装服务器和机架专为确保所有面板和挡板都已打开且所有设备都已装满的气流而设计。就像个人电脑中的气流设计为具有所有盖板一样。通过留出缝隙和/或移除面板和盖子来规避设计可能弊大于利。
joeqwerty

23

我从未在机柜中的机架式设备之间跳过机架单元。如果制造商指示我在设备之间跳过U,那么我从未见过这样的建议。

我希望任何设计用于机架安装的设备都会通过前面板或后面板散发热量。热量将通过导轨以及机箱的顶部和底部传导,但是与前后的辐射相比,我希望热量会很小。


5
实际上,如果要跳过机架单元,则需要在每台服务器之间使用保护罩,否则,高通道和冷通道之间会混有空气。
Doug Luxem

22

在我们的数据中心,我们不会留下空白。我们的地板上有凉风,缝隙会引起气流问题。如果由于某种原因确实有缝隙,我们将用一块空白板盖住它。立即添加空白板会使我们的冷通道的顶部变冷,而我们的热通道的温度变高。

我认为我没有数据或图表了,但是一旦我们开始进行更改,区别就很明显了。机架顶部的服务器停止了过热。我们停止了烹饪电源的供应(以每周约1个的速度进行)。我知道更改是在我们的数据中心经理从Sun绿色数据中心博览会回来之后开始的,他在那里参加了一些有关冷却等的研讨会。在此之前,我们一直在机架前后的地板上使用间隙和部分填充的机架以及穿孔的瓷砖。

即使有管理部门到位,消除差距也取得了更好的效果。现在,我们在房间中所有地方的所有服务器内部温度都在规格范围内。在我们标准化电缆管理并消除间隙并纠正地砖放置之前,情况并非如此。我们想做更多的工作将热风引回CRAC部门,但是我们还没有资金。


9

我不跳过我们。我们租房,我们花钱。

这些天没有理由加热。所有的冷空气都在前面,然后从后面出来。顶部不再有通风孔。


1
回复:“我们花钱。” 我曾经认为空间是数据中心定价的主要因素。然后,我在托管部门找到了一份工作,结果证明,在Colo环境中,大多数成本来自电源电路和交叉连接。
JamesBarnett


5

如果地板上有凉爽的空气,请不要留空间,并在未使用的u空间中使用毛坯。如果您只是使用标准空调设备的低技术冷却系统,则当热服务器聚集在一起时,最好留出空隙以最大程度地减少热点。


4
如果您的服务器使用前后风扇完全不明智地冷却以留出间隙,则会损害气流。
pauska,2009年

5

我们有3 1/2个机架的集群节点及其在托管设备中的存储。我们唯一需要跳过的地方就是将网络电缆路由到核心群集交换机所在的中央机架。我们可以负担得起在空间上明智的做法,因为机架已经在功耗方面达到了极限,因此不可能将更多节点塞入其中:)

这些机器以100%CPU的速度运行24/7,其中一些机器在1U机顶盒中具有多达16个内核(4个四核Xeon),而且我还没有看到在大多数机器之间不留空格的负面影响。

只要您的设备的空气通道设计合理,我就不知道为什么会如此。


5

我的UPS上方(将来用于安装第二个电池)和磁带库(如果需要另外一个)上方有很大的空隙。除此之外,我没有空隙,并且我使用面板填充空白空间以保持气流。


3

每三分之二,但这是由于管理部门以及需要围绕它们而不是热力进行工作。这些服务器各有6条 Cat5电缆连接到它们的事实无济于事。我们确实大量使用了挡板和机架顶部的挡风条,以防止热通道再循环。

此外,我们的数据中心不缺一件事。它是为在7-10U服务器为标准时向后扩展而设计的。现在,我们已经使用了密集机架式ESX集群,那里就是一个鬼城。


好了,有6根电缆,让我们看... 2个管理接口,2个iscsi接口和2 ....专用于集群管理器?
马特·西蒙斯

不要使用管理臂,也不必跳过单位。:)
Doug Luxem 2009年

1
6条电缆:1个HP iLO卡,1个ESX mgmt LUN,4个VM Luns。同样,用于SAN的光纤。我们还没有iSCSI。如果我们愿意在拉出服务器之前完全脱下服务器的衣服,那么我们肯定会怀抱不满的。
sysadmin1138

1
看过您的数据中心后,我想知道您是否将其设置在传统的热通道冷通道中,而不是分散在巨型房间中,以获取更好的热性能。
劳拉·托马斯

3

我不会在服务器之间留有空隙,但是我会为LAN交换机做些事情-这使我可以在上下放置一些1U电缆管理条...但是,冷却绝对不是完成的。


2

除非我们已将服务器或其他东西取出来并且不费心去重新安排,否则没有任何差距。我认为我们比这里的许多人要小一些,只有2个机架,只有15台服务器,还有一些磁带驱动器,交换机和UPS。


2

除了计划扩展圣诞老人系统或类似的事情时,别无其他。我们倾向于将新机柜放置在靠近实际控制器的位置。

如果散热良好,除非服务器结构不良,否则留出缝隙将无济于事。


2

我有一种印象(也许是错误的),这在一些不广泛使用热/冷通道的电信环境中是一种更流行的做法。

但是,它不适合高密度和运行良好的数据中心。


1

我通常在大约5RU的服务器(即5x1ru或1x2ru + 1x3ru)之后留一个空白RU,这取决于您所使用的数据中心中的冷却设置。如果您在机架前进行过冷却(例如,想法是将冷空气从地板上推上来,而您的服务器通过它们吸收冷空气。在这种情况下,通常可以通过不留空插槽(即使用空白的RU盖)来获得更好的散热效果。但是根据我的经验,如果通过机架中的地板进行散热,则可以通过拆分服务器来提高散热效率在整个机架上彼此重叠


1

在我们拥有自己的数据中心且空间不成问题的情况下,我通常在逻辑区域之间跳过U(带有间隔以阻止气流):Web服务器具有一个区域,数据库,域控制器,电子邮件,文件服务器有另一个,防火墙和路由器有另一个。远程台式机的交换机和配线架位于它们自己的机架中。

我完全记得一次出于冷却原因跳过U的情况。这是一所高中的A / V有线电视循环解决方案,那里有三个单元,每个单元负责为建筑物的一部分提供有线电视系统。由于过热不得不在两年内第三次更换顶部单元后,我在机架上进行了一些“手术”以制造安装孔,这样我就可以在三个单元之间留出1 / 2U的空间(共1 U总空间)。

这确实解决了问题。不用说这已经被完全记录下来了,为了获得更好的效果,我在一张纸上用胶带将它们之间的缝隙贴了一下,解释了为什么事情是这样的。

这里有两节课:

  1. 仅在例外情况下才能进行冷却。
  2. 使用信誉良好的机箱或服务器供应商。请小心购买试图将2U热量包装到1U空间的设备。这将很诱人,因为1U系统可能看起来便宜得多。并且要小心购买未充分考虑气流的品牌外包装。

0

我把它们堆放在一个架子上。从来没有任何问题,所以我从来没有任何理由将它们隔开。我可以想象人们将它们隔开的最大原因是热量。



0

我之前在两个开关之间留了RU的1/3,主要是因为它们每个的高度都为1 1/3 RU。

如果我将它们拼凑在一起,那么更高的档位将错位1/3U。

除此之外,我从未离开过纯粹用于散热的空间,只是为了未来的增长。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.