用水冷却服务器机架?懂吗 重新利用能源进行小型安装?


15

首先-这不是购物问题,不是关于具体价格,而是关于总体可行性。如果方法不好,寻找制造商是没有意义的。

我将于9月将公司迁至新办公室,在此期间,我们将扩展和整合我们的计​​算集群。现在它在数据中心中,但是我在地下室有一个不错的房间为此做准备。

我考虑冷却。到今年年底,我们可能将使用大约10kw的电力。那是很多热量,并且冷却将是昂贵的。我位于波兰南部,靠近德国边境。这是一个可以以相对便宜的价格获得水的区域-“浪费水”在这里不是问题。因此,我的情况不同于西班牙的一家公司;)

物理学告诉我,以1°C加热1升水需要1卡路里(1KCal),而1kWh是750卡路里(并且我们可以假设100%的效率-热水器非常有效)。这意味着在1°C加热750升时为1kWh。10kw的热量和20°的热量增加意味着我每小时需要375升汽油。那是每分钟6.25升,不算多;)我们在这里说的是270立方米。即使在夏天,地下管道的确可以使水更凉爽;)

这样的方法可行吗?有人这样做吗?我们现在有一个10kw的安装。再利用那热量是否可行?替代方案是一种体面的冷却系统,该系统将使用约2.5kWh的功率运行。滴水将:

  1. 即使在夏天,也要给我一个与外界空气相比非常冷的输入(即,较低温度的介质会散发热量)
  2. 代替将热量散发到外部空气中的需求,这可能会造成问题。如果空气温度为22°C,这是一个有待解决的问题,但是OTOH的水会很冷。我还可以节省冷却回路外部的投资。

现在,第二个问题-是否有可行的方法为房屋供暖?;)毕竟,那水中有很多能量;)

如果这是一个坏主意,我将在这里停止。如果不是,我将开始寻找供应商。也许我的数学是错误的?


2
有趣的主意-正如答案所表明的那样,虽然以前是过时的,但是就个人而言,我不希望在十万货币服务器集群附近的任何地方浇水-不管在水冷却系统上投入多少钱。
tombull89 2012年

1
好吧,然后用它冷却咖啡壶。在机架冷却系统中-您散发的热量是多少?;)我刚刚发现en.wikipedia.org/wiki/Deep_water_source_cooling是一个主意-现在我还没有,但是也许它可以用于加热房屋,滴下温水和获取淡水等。仅蒸发冷却就可以解决问题更高效,更节能。
TomTom 2012年

水通常不是选择的媒介(因为几乎不可能获得100%的纯水,并且不纯净的水容易导电)。 油浸式冷却通常是选择的方法。从系统中回收废热是留给读者的练习,但是我认为使用风扇的排气进行空气交换可能更容易/更便宜。 ..
voretaq7 2012年

@ voretaq7,我以前见过矿物油冷却,但是在单个桌面上却不认为会在如此大的规模上完成。我显然是错的。
tombull89 2012年

1
10kw规模不大。这些天的密度达到了每机架40kw(为此可以看到后门冷却装置)。这些天,我得到的标准是每1U 2个处理器-做数学。2.5kw机架的日子已经过去...;)
TomTom

Answers:


4

有两种解决方法,一种我肯定知道在市场上存在,另一种我只在定制版本中听说过。

市场准备

这些解决方案使用水循环来提供机架冷却。它们在机架的进气侧产生冷空气,并使用水循环在周围环境与其产生的热量之间进行热交换。这些解决方案是存在的,不需要对机架式硬件进行任何修改即可工作。他们有时需要特殊的机架门以确保正确的气流,但并非总是如此。一些解决方案在服务器进气口前形成了冷气“帘”。

通过这种方法,您可以轻松突破10KW /机架的功率密度障碍。

自定义构建

这种方法将水带入设备本身。我不知道其中有内置水循环的任何离线服务器,但是我听说如果您确实需要具有此类要求的10K设备,那么主要的制造商可以为您提供帮助。这样做的好处是,您可以将功率范围推得更高,因为您不(过多地)依赖空气的热传递,因为阻水层本身会从设备进行热传递。

从理论上讲,使用自定义构建方法可以获得非常高的功率密度。


抱歉,这本身并不能回答问题。我知道存在机架解决方案。威图(Rittal)和其他人出售它们-这是在机架空调中。问题更多的是关于另一面,摆脱了热量。我宁愿不为能提供更有效解决方案而浪费热量的外部交流设备付费。也许冷水可以作为对策,也许效果更好。...当您在家里使用温水时?
TomTom 2012年

@TomTom啊,您正在服务器室外寻找热交换器侧!恐怕我无法掌握的专有技术。
sysadmin1138

在房间里,我可能会安装机架或侧装-现在检查该零件。有一些用水,但要确保节水(服务器上没有水,泄漏到底部,只有管道,无论如何我们都从顶部获得数据和电源)。问题是更多的-一旦液体流出房间,我如何才能最有效地冷却这些东西;)
TomTom 2012年

7

关于水冷的总体成本效率,我已经回答了另一个好问题:为什么数据中心水冷不普及?

对于您的具体情况,我强烈建议您查看带有节能器的地热循环泵。在您的冬季,使用基本是室外空气来冷却数据中心的热量可能足以运行节电器。在夏季,热泵的效率要比标准AC单元高得多,通常是典型效率的两倍。

使用公共回路热泵还可以使您从一个区域(数据中​​心)提取热量,也可以非常有效地将其泵送到另一个区域(甚至是办公空间或连栋房屋)(尽管与传统热源相比可能更具成本效益) ,这取决于您当地的能源成本)。

您也可以使用空气来倾倒水来冷却,也可以使用机架内的空气(通常)和淡水来冷却空气。这些水可以来自新鲜的水源,并在“加热”后倾倒;这在运行商用尺寸的冰箱中曾经很常见,因为正如您在“问题”中所说的那样,计算得出了结论。它今天不常用,因为水比以前昂贵,而且数学运算不再起作用(至少在我的世界角落,这里的水也很便宜)。使用水冷直接冷却服务器会更有效,但是也会引入泄漏的风险(这会带来风险或保险费用)。

在实施上述任何方法时,最大的弊端是昂贵的设备。大多数企业并不关心它是否会在10到20年内收回成本,他们只关心今年的盈利。回收期取决于您当地的价格。


1
其实不行 即使您将服务器室取出,也不要理会水面等。对于安装1兆瓦的设备而言,这可能是个问题(除非您在河上),但这将消除交流电的一半能源问题,并且所产生的热量要比外界空气明显冷得多。我的问题不是泛滥,而是愿意在这里投资。我的问题是经济/可行性。还有一些套件可用于机架冷却-甚至用水冷却。
TomTom 2012年

1
英制-加仑已经够坏了,但是我们这里没有使用BTU。这都是关于瓦茨的;)
TomTom 2012年

1
在典型的制冷循环(典型的冷却器)中,将水用作散热器可以使它们的效率提高2-3倍(假设供水大约是地面温度12ºC)。这既适用于封闭的地面回路(通常称为地热热泵),也适用于开放式回路,例如淡水。典型的蒸发系统效率低得多,通常最适合以蒸汽为动力的应用(当地公用事业公司通常通过垃圾焚烧来供应蒸汽)。
克里斯S

1
这个比较好。发现了一些关于冷却地下水的要求,只要温度为14至18度,冷却温度为500瓦(!)即可达到15千瓦(!)。
TomTom 2012年

1
每度升水可提供1.16W冷却。要冷却10kW,您需要11600升;大多数计算机的运行温度约为32°C。如果地下水从12°C开始上升20°C(假设效率不现实100%),那么11600l-C÷200C = 580l(我估计650l更现实)。如果没有温差和流速,您的500瓦数将毫无意义。例如,如果您使用热泵(珀尔帖,蒸发,制冷剂),则可以增加温度差,但同时也必须支付电费。
克里斯S

6

TomTom公司-我非常近买了一堆惠普的MCS水冷机架为一个项目在几年前却选择了改变数据中心取代。

它并不完全便宜,但他们在可靠性方面支持它,例如,他们很高兴您将Integrity东西塞进去。顺便说一下,每个机架可以处理约36Kw。

只是想让您注意这些内容,因为它并没有完全跳出他们的网站。


是的,特别是HP;)周围还有一些-我最好是ka薄侧面冷却器。当前评估方法。我的主要问题不是服务器端,基本上是如何散热;)
TomTom 2012年

伦敦东部有一个数据中心,在发生重大交流故障的情况下,我们可以采用某种疯狂的方式进行操作-它们在建筑物之间有一个大池塘,里面充斥着大量的定期雨水。如果发生交流电故障,他们可以通过某种方式传导热量,不知道具体情况,但它不是一个小池塘,也许100m x 10m?
斩波器

1
好吧,房子后面有个唱歌,用来洗厕所等的废水-不再使用了。我可以付钱给一些人清理干净,然后在那儿安装一个储水箱。同意;)实际上雨水也可能会大大减少水的发票;)
TomTom 2012年

0

我无法回答您所提出的所有问题,但是有一位主持人的大部分策略都基于水冷,这就是OVH。他们所有的服务器都是水冷式的,因此可以提供有趣的价格。如果我正确地记得统计数据,它们是欧洲最大的托管公司,全球排名第五。是的,它可以工作。

简单吗?不。他们制造大部分的水冷设备,这会导致高昂的前期成本。尽管如此,它还是带来了很高的能源效率。

您可以再利用热水吗?我不太确定,因为您不希望水温度过高,因为水将失去冷却服务器的效率。


0

LRZ有一个大型的热水冷却HPC集群,他们正在进行这种废热回收。

SuperMUC使用IBM开发的一种新的,革命性的热水冷却形式。诸如处理器和内存之类的有源组件直接用水冷却,进水温度最高可达40摄氏度。“高温液体冷却”和非常创新的系统软件有望减少系统的能耗。此外,所有LRZ建筑物都将利用该能量进行加热。

有关更多信息,请访问http://www.lrz.de/services/compute/supermuc/systemdescription/

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.