服务器机房的正确温度是多少?


63

当我在服务器机房工作时,我发现天气很冷。

我知道服务器室必须很冷才能抵消服务器的热量,但也许太冷了。

使我们的服务器机房保持在适当的温度是多少?


1
这取决于。许多现代服务器都对45摄氏度的工作温度感到非常满意。USV必须尽全力-战车不喜欢那样。但是对于服务器...可能没问题。旧机器在该温度下cho死。
TomTom 2012年

Answers:


53

关于服务器机房温度的建议相差很大。

本指南说:

一般建议建议您不要低于10°C(50°F)或高于28°C(82°F)。尽管这看起来范围很广,但这些都是极端情况,将环境温度保持在20-21°C(68-71°F)附近更为常见。由于种种原因,这有时可能是一个很高的要求。

这种讨论 Slashdot上有各种各样的答案,但范围内大部分上面引述。

更新:正如下面的其他评论所述,Google建议数据中心的温度为26.7°C(80°F)。

另外,采暖,制冷与空调工程师学会(ASHRAE)最近更新了他们的建议tempature范围是从18°C-27°C(64.4°F-80.6°F)。

但是,本文再次强调指出,在该主题上仍未达成共识。如文章所述,我要强调:

...将恒温器调高一点也可能会减少从冷却故障中恢复的时间,并且仅适用于对设备中的冷却条件有深刻了解的公司。

IMO的大多数公司对冷却条件的了解都不够,因此在小企业环境中将房间运行得凉一点会更安全。

NB:重要的是要注意,服务器/数据室中还有很多因素需要考虑,例如温度,空气流量和湿度也很重要。


1
Google实际上建议研究甚至将其升高到80°F以节省能源。:有一个很好的文章在这里datacenterknowledge.com/archives/2008/10/14/...
gharper

1
谢谢,我将更新答案以提及,我的原始答案更适合于日常的小型办公室服务器机房-在这种情况下,可能需要IMO在冷却故障的情况下留出更多的余地(或更加关注气流等。)
下午

36
需要牢记的一点是,Google会在预期的故障模型下运行-与其像大多数公司一样使用昂贵的容错服务器,而是使用高度定制的容错软件。Google完全希望其服务器能够定期关闭(但要让该软件绕过故障进行路由)。因此,在Google的成本核算模型中,将服务器机房以80度运行可能是有意义的,因为(非常便宜的)硬件故障的增加很容易被节能所抵消。在您的公司中,有几个价值6,000美元的停产服务器是否可以节省电费?
大卫,2009年

<50°F怎么了?我很好奇,因为我知道处于“极端”环境中的几个数据中心只是向外通风以进行冷却……还有谁记得Kryotech?第一家获得1Ghz家用PC但将Athlon 600Mhz处理器过冷至-40°C的公司。
沃伦

10

Google的数据中心最佳做法推荐80度:

升高冷通道温度将减少设施的能源消耗。不要试图在70F下运行冷通道。将温度设置为80F或更高-几乎所有设备制造商都允许这样做。

我们的运行速度为72,但我仍然不完全相信我们自己的房间在设计时会考虑气流的问题。


8

就像其他人所说的那样,在低70 F的某个位置比较好。但是,确保机架和其中的硬件可以“呼吸”更为重要。如果热空气滞留在机架中或服务器机箱中,那么低的环境温度实际上并不会起到任何作用。


4

我的服务器机房设置为69度。我们有一个为该房间提供服务的空调装置,它以24/7的速度运行,以使房间全年保持69度。


4

我见过的所有服务器机房通常都在20°C到25°C之间,但是根据经验,我发现硬件对变化的敏感度超过给定温度。我经常看到即使在20至25°C的温度下,在达到4-5°C的温度后,硬件也会发生故障。

因此,稳定性和气流当然是关键。


4

18°C(65°F(华氏度))。它比必须的要冷一些,但是如果出现故障,它会给我们一些宝贵的额外时间,使其在无法承受的高温之前做出反应。


2

请记住,Google提出的80°F的建议实际上不包括因意外负载或空调故障而导致数据中心过热时关闭数据中心的费用。它们还包括对关键部件的气流进行更好的控制。


1

我们希望我们的温度在19C到23C之间,而在28C时会发出警报-我们拥有98%的HP刀片服务器,因此,如果达到该警报水平,某些服务器/机箱会“降低其灯芯”以降低总体功耗(这就是所谓的Thermalogic)。


1

以我的经验,这取决于设备。我知道一家公司有三个服务器机房。一个保持在80°F左右,另一个保持较少的服务器,大约保持在72°F,而第三个只有两个服务器,保持在大约65°F。我在那里的时候从来没有遇到过问题,但是,就像其他人所说的那样,最好在75°F或略低于这个温度,因为如果AC熄灭,它会留出一点肘部空间。


0

我们发现进气口温度超过30°C都会引起温度警告(我们将对其进行监控),通常这意味着室温低于25°C。

在澳大利亚,似乎艾默生(李伯特)决定将21c作为标准,而我一直在这里居住的每个房间都设置为相同。

如果您的房间足够大,可以看看热风/冷风,空白瓷砖等等,它们确实可以提高冷却效率。


0

我在海军。在我们的船上,我们将房间保持在华氏65度以下。我们应该在红海中部,外面是120度。我们会穿着一件毛衣,手套,一件外套和一件豌豆大衣走出太空(62度),每个人都会像疯了一样看着我们。其他所有人都穿着宽松的T恤衫,满头大汗。

问题是,我们的冷却系统不能很好地去除湿气。因此,如果外面潮湿且温度上升到70度或更高,则该空间开始变粘。


6
贾斯汀,您好,欢迎来到ServerFault。您在这里写的是一个有趣的轶事,但这并不是一个很好的答案。答案将包括要考虑的事项和/或最佳实践建议。您可能需要看一下:serverfault.com/questions/how-to-answer
quux 2011年

0

这个问题没有坚定而迅速的答案。这在很大程度上取决于计算机的类型和数据中心的设计。

slashdot讨论中提出的关键点之一是,真正的困难在于处理热点和气流

室内凉爽的环境温度是降低室内数千个热点温度的简便方法。但这是低效率的:当真正需要的是冷却服务器的高温部分(CPU,内存,存储设备,电源等)时,数据中心为整个房间散热。许多托管设施的客户使用不同类型的硬件(115V或208v,好的设计,不好的设计)。

数据中心还需要保持足够的冷空气以在断电时提供缓冲。缓冲的冷空气意味着UPS和发电机的工作量减少。想象一下,一个数据中心一次失去了100%的电源(所有节点都掉电,冷却也掉电了)。节点可能没有电源,但是硬件将需要一些时间来冷却并且仍然散发热量一段时间,这会使数据中心非常热。

具有温暖服务器机房的组织通常使用封闭的机柜和精美的风管系统将冷空气直接引导到热节点上。专门的电力基础设施可以帮助减少电力转换产生的热量。即使服务器机房中的环境温度较高,这也可以使节点保持足够的凉爽。这些组织通常对其硬件的大多数方面都具有严格的控制权,并且可以根据需要自定义设计整个数据中心。他们可以进行投资并获得收益。


0

第一:您在哪里测量室温?;-)机架冷侧温度是多少?机架的热面是什么?空调进气温度是多少?

这实际上取决于设备。(感觉到xbox散发出来的热量)热管理是一门科学,Look Honda(以及许多其他产品)正在开始给冷却的废气加水;-) ...

我会告诉你我曾经去过的数据中心:

Equnix保持DC的凉爽(使高管出差时获得良好的“经验”)

RW使它们保持80f左右的热/热状态,地板上散发出凉爽的空气(更好的房间/保险库设计和整体更高质量的系统设计)

Coresite(我去过的地方至少)更接近RW,但这取决于CR和客户。一些CR在80,一些在70。(冷岛总是冷的)



-2

您真正要监视的温度是服务器内部温度,而不是外部环境温度。观察服务器温度(所有服务器都有通过服务器界面报告的内部温度计),并相应地调整环境温度。这将考虑气流等。制定备用冷却计划是一个好主意,即使在主要冷却系统出现故障的情况下,即使是便携式A / C装置也可以成为救生员。


7
实际上,这是非常糟糕的建议。OP可能看不到它是件好事。但是,当环境温度降到露点以下并使水在所有金属表面上冷凝时,忽略环境温度是将所有服务器变成昂贵的门挡的好方法。我极力推荐将其用于破坏活动,因为它具有破坏性,几乎无法证明其意图。
HopelessN00b 2012年

-5

我发现19-21的温度很好。Google运行其服务器机房的温度比您运行的温度略高,因为他们发现故障率略高于为冷却付出额外的费用。


9
不要那样做 3.5年后回答其他问题中没有的任何问题。
HopelessN00b 2012年
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.