Answers:
我从未在机柜中的机架式设备之间跳过机架单元。如果制造商指示我在设备之间跳过U,那么我从未见过这样的建议。
我希望任何设计用于机架安装的设备都会通过前面板或后面板散发热量。热量将通过导轨以及机箱的顶部和底部传导,但是与前后的辐射相比,我希望热量会很小。
在我们的数据中心,我们不会留下空白。我们的地板上有凉风,缝隙会引起气流问题。如果由于某种原因确实有缝隙,我们将用一块空白板盖住它。立即添加空白板会使我们的冷通道的顶部变冷,而我们的热通道的温度变高。
我认为我没有数据或图表了,但是一旦我们开始进行更改,区别就很明显了。机架顶部的服务器停止了过热。我们停止了烹饪电源的供应(以每周约1个的速度进行)。我知道更改是在我们的数据中心经理从Sun绿色数据中心博览会回来之后开始的,他在那里参加了一些有关冷却等的研讨会。在此之前,我们一直在机架前后的地板上使用间隙和部分填充的机架以及穿孔的瓷砖。
即使有管理部门到位,消除差距也取得了更好的效果。现在,我们在房间中所有地方的所有服务器内部温度都在规格范围内。在我们标准化电缆管理并消除间隙并纠正地砖放置之前,情况并非如此。我们想做更多的工作将热风引回CRAC部门,但是我们还没有资金。
我不跳过我们。我们租房,我们花钱。
这些天没有理由加热。所有的冷空气都在前面,然后从后面出来。顶部不再有通风孔。
Google不会在服务器之间留下U,我想他们对热量管理感到担忧。观察大型公司的工作情况总是很有趣。这是他们数据中心之一的视频:http : //www.youtube.com/watch?v= zRwPSFpLX8I&feature= player_embedded
直接前往4:21查看他们的服务器。
如果地板上有凉爽的空气,请不要留空间,并在未使用的u空间中使用毛坯。如果您只是使用标准空调设备的低技术冷却系统,则当热服务器聚集在一起时,最好留出空隙以最大程度地减少热点。
我们有3 1/2个机架的集群节点及其在托管设备中的存储。我们唯一需要跳过的地方就是将网络电缆路由到核心群集交换机所在的中央机架。我们可以负担得起在空间上明智的做法,因为机架已经在功耗方面达到了极限,因此不可能将更多节点塞入其中:)
这些机器以100%CPU的速度运行24/7,其中一些机器在1U机顶盒中具有多达16个内核(4个四核Xeon),而且我还没有看到在大多数机器之间不留空格的负面影响。
只要您的设备的空气通道设计合理,我就不知道为什么会如此。
每三分之二,但这是由于管理部门以及需要围绕它们而不是热力进行工作。这些服务器各有6条 Cat5电缆连接到它们的事实无济于事。我们确实大量使用了挡板和机架顶部的挡风条,以防止热通道再循环。
此外,我们的数据中心不缺一件事。它是为在7-10U服务器为标准时向后扩展而设计的。现在,我们已经使用了密集机架式ESX集群,那里就是一个鬼城。
在我们拥有自己的数据中心且空间不成问题的情况下,我通常在逻辑区域之间跳过U(带有间隔以阻止气流):Web服务器具有一个区域,数据库,域控制器,电子邮件,文件服务器有另一个,防火墙和路由器有另一个。远程台式机的交换机和配线架位于它们自己的机架中。
我完全记得一次出于冷却原因跳过U的情况。这是一所高中的A / V有线电视循环解决方案,那里有三个单元,每个单元负责为建筑物的一部分提供有线电视系统。由于过热不得不在两年内第三次更换顶部单元后,我在机架上进行了一些“手术”以制造安装孔,这样我就可以在三个单元之间留出1 / 2U的空间(共1 U总空间)。
这确实解决了问题。不用说这已经被完全记录下来了,为了获得更好的效果,我在一张纸上用胶带将它们之间的缝隙贴了一下,解释了为什么事情是这样的。
这里有两节课:
我把它们堆放在一个架子上。从来没有任何问题,所以我从来没有任何理由将它们隔开。我可以想象人们将它们隔开的最大原因是热量。