在安装机架式服务器方面,似乎存在很多观念上的分歧。有讨论电缆臂和其他机架安装配件的线程,但我很好奇:
当您安装服务器时,您是否在服务器之间留下了一个空的机架单元?为什么或者为什么不?你有任何经验证据来支持你的想法吗?有没有人知道一项研究可以最终证明一个人是否更好?
在安装机架式服务器方面,似乎存在很多观念上的分歧。有讨论电缆臂和其他机架安装配件的线程,但我很好奇:
当您安装服务器时,您是否在服务器之间留下了一个空的机架单元?为什么或者为什么不?你有任何经验证据来支持你的想法吗?有没有人知道一项研究可以最终证明一个人是否更好?
如果您的服务器使用从前到后的流通式冷却,就像大多数机架式服务器所做的那样,留出间隙实际上会损害冷却。除了通过服务器本身,您不希望冷空气有任何方式到达热通道。如果您需要留出空隙(出于电源问题、地板重量问题等),您应该使用盲板,这样空气就不会在服务器之间通过。
我从未跳过机柜中机架安装设备之间的机架单元。如果制造商指示我在设备之间跳过 U,我会的,但我从未见过这样的建议。
我希望任何设计用于机架安装的设备都会通过前面板或后面板排出热量。一些热量将通过导轨以及机箱的顶部和底部传导,但与来自前后的辐射相比,我希望这非常小。
在我们的数据中心,我们不会留下空隙。我们有冷空气从地板上吹来,间隙会导致气流问题。如果由于某种原因确实有间隙,我们会用一块空白板盖住它。添加空白板立即使我们的冷通道顶部更冷,我们的热通道更热。
我不认为我有数据或图表了,但是一旦我们开始进行更改,差异就非常明显了。机架顶部的服务器停止过热。我们停止了烹饪电源(我们以大约每周 1 次的速度进行)。我知道这些变化是在我们的数据中心经理从 Sun 绿色数据中心博览会回来后开始的,他参加了一些关于冷却等的研讨会。在此之前,我们一直在机架前后的地板上使用间隙和部分填充的机架和穿孔瓷砖。
即使管理部门到位,消除差距的效果也更好。我们房间各处的所有服务器内部温度现在都在规格范围内。在我们标准化电缆管理并消除间隙并纠正我们的地砖放置之前,情况并非如此。我们想做更多的事情来将热空气引导回 CRAC 单位,但我们还无法获得资金。
我不跳过我们。我们租房,我们花钱。
这些天没有理由热。所有的冷空气都从前面进来,从后面出来。顶部不再有通风孔。
谷歌不会在服务器之间留下 U,我猜他们担心热量管理。观察大玩家如何完成这项工作总是很有趣。这是他们的数据中心之一的视频: http ://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded
直接去4:21看看他们的服务器。
我们有 3 1/2 机架的集群节点及其存储在托管设施中。我们唯一跳过 U 的地方是我们需要将网络布线路由到核心集群交换机所在的中央机架。我们可以在空间方面做到这一点,因为机架的功率已经达到极限,所以不可能在其中塞入更多节点 :)
这些机器以 100% 的 CPU 运行 24/7,其中一些在 1U 盒子中最多有 16 个内核(4x 四核 Xeons),我还没有看到在它们之间不留空间的任何负面影响。
只要您的设备具有设计良好的空气路径,我不明白它为什么重要。
如果您有来自地板的冷空气,请不要留下空间,并且在未使用的空间中使用空白。如果您只有一个使用标准空调装置的低技术冷却系统,那么当您将热服务器聚集在一起时,最好留出空隙以最大限度地减少热点。
我的 UPS 上方(用于将来安装第二块电池)和磁带库上方(如果我需要另一个电池)上方有很大的空隙。除此之外,我没有缝隙,我使用面板填充空白空间以保持气流。
我不会在服务器之间留下空隙,但我会为 LAN 交换机之类的东西 - 这允许我在上面和下面放置一些 1U 电缆管理条......但它绝对不是为了冷却而完成的。
每三分之一,但这是由于管理部门以及需要围绕它们工作而不是热量。这些服务器每个都有6根 Cat5 电缆连接到它们的事实并没有帮助。我们确实大量使用了盲板和机架顶部的气坝,以防止热通道的再循环。
此外,我们的数据中心不乏空间。当 7-10U 服务器是标准配置时,它是为向后扩展而设计的。现在我们已经使用了机架密集型 ESX 集群,那里就像一座鬼城。