freddiefujiwra Asked: 2009-05-22 22:44:09 +0800 CST2009-05-22 22:44:09 +0800 CST 2009-05-22 22:44:09 +0800 CST 服务器机房的正确温度是多少? 772 当我在我们的服务器机房工作时,我注意到天气很冷。 我知道服务器机房必须很冷才能抵消服务器的热量,但也许它太冷了。 保持我们的服务器机房的合适温度是多少? physical-environment datacenter server-room 16 个回答 Voted Best Answer mundeep 2009-05-22T23:00:46+08:002009-05-22T23:00:46+08:00 关于服务器机房温度的建议差别很大。 本指南说: 一般建议建议您不要低于 10°C (50°F) 或高于 28°C (82°F)。尽管这看起来范围很广,但这些都是极端情况,将环境温度保持在 20-21°C (68-71°F) 左右更为常见。由于各种原因,这有时可能是一项艰巨的任务。 这个关于 Slashdot 的讨论有多种答案,但大多数都在上面引用的范围内。 更新:正如其他人在下面评论的那样,谷歌建议数据中心使用 26.7°C (80°F)。 此外,美国采暖、制冷和空调工程师协会(ASHRAE) 最近更新了他们推荐的温度范围,从 18°C-27°C (64.4°F-80.6°F)。 然而,这篇文章再次强调,在这个问题上仍然没有达成共识。正如文章中提到的,我会强调: ...将恒温器推高也可能会减少从冷却故障中恢复的时间,并且仅适用于对其设施中的冷却条件有深入了解的公司。 IMO 大多数公司不会对冷却条件有如此深入的了解,因此在小型企业环境中将房间运行得稍微凉爽一点会更安全。 注意:重要的是要注意在服务器/数据机房中要考虑的因素很多,而不仅仅是温度、气流和湿度等重要问题。 jldugger 2009-05-22T23:26:04+08:002009-05-22T23:26:04+08:00 Google 的数据中心最佳实践建议 80 度: 提高冷通道温度将减少设施的能源使用。不要试图在 70F 运行冷通道;将温度设置为 80F 或更高——几乎所有设备制造商都允许这样做。 我们在 72 处运行,但我再次不完全相信我们自己的房间在设计时考虑到了气流。 user640 2009-05-23T05:37:20+08:002009-05-23T05:37:20+08:00 正如其他人所说,在 70 年代低点的某个地方是好的。然而,确保机架和其中的硬件能够“呼吸”更为关键。如果热空气被困在机架中 - 或服务器机箱中 - 那么低环境温度实际上不会有任何好处。 GregD 2009-05-22T22:50:32+08:002009-05-22T22:50:32+08:00 我的服务器机房设置为 69 度。我们有一个空调机组为那个房间提供服务,它全天候 24/7 运行,使房间全年保持在 69 度。 anto1ne 2009-05-23T01:16:45+08:002009-05-23T01:16:45+08:00 我见过的所有服务器机房通常都在 20°C 到 25°C 之间,但根据经验,我注意到硬件对变化的敏感度比给定温度更高。我经常看到硬件在温度升高 4-5°C 后出现故障,即使是从 20 到 25。 所以稳定性是关键,当然还有气流。 Commander Keen 2009-05-23T12:51:48+08:002009-05-23T12:51:48+08:00 18°C (65°F)。它比它必须的要冷一点,但如果出现故障,它会给我们一些宝贵的额外时间来做出反应,然后它就会变得不舒服。 Franck Dernoncourt 2018-04-12T20:36:11+08:002018-04-12T20:36:11+08:00 https://en.wikipedia.org/wiki/Data_center_environmental_control包含供应商数据中心温度建议的有趣概述: Chopper3 2009-05-22T22:57:50+08:002009-05-22T22:57:50+08:00 我们希望我们的温度在 19C 和 23C 之间,警报在 28C - 我们是 98% 的 HP 刀片服务器,因此如果我们的服务器/机箱达到该警报级别,某些服务器/机箱会“调低灯芯”以降低整体功耗(它被称为热学)。 carlito 2009-05-24T16:45:43+08:002009-05-24T16:45:43+08:00 请记住,Google 的 80°F 建议包括在因意外负载或空调故障而过热时关闭数据中心几乎没有成本。它们还包括更好地控制关键部件上的气流。 Justin 2011-09-13T09:18:57+08:002011-09-13T09:18:57+08:00 我在海军。在我们的船上,我们将房间的温度保持在华氏 65 度以下。我们会在红海中间,外面是 120 度。我们会带着一件毛衣、手套、一件外套和一件大衣走出空间(62 度),每个人都会看着我们,就像我们疯了一样。其他人都脱光了他们的 T 恤,汗流浃背。 问题是,我们的冷却系统不能很好地去除湿气。所以,如果外面很潮湿,温度上升到 70 度或更高,它开始在空间中变得粘稠。
关于服务器机房温度的建议差别很大。
本指南说:
这个关于 Slashdot 的讨论有多种答案,但大多数都在上面引用的范围内。
更新:正如其他人在下面评论的那样,谷歌建议数据中心使用 26.7°C (80°F)。
此外,美国采暖、制冷和空调工程师协会(ASHRAE) 最近更新了他们推荐的温度范围,从 18°C-27°C (64.4°F-80.6°F)。
然而,这篇文章再次强调,在这个问题上仍然没有达成共识。正如文章中提到的,我会强调:
IMO 大多数公司不会对冷却条件有如此深入的了解,因此在小型企业环境中将房间运行得稍微凉爽一点会更安全。
注意:重要的是要注意在服务器/数据机房中要考虑的因素很多,而不仅仅是温度、气流和湿度等重要问题。
Google 的数据中心最佳实践建议 80 度:
我们在 72 处运行,但我再次不完全相信我们自己的房间在设计时考虑到了气流。
正如其他人所说,在 70 年代低点的某个地方是好的。然而,确保机架和其中的硬件能够“呼吸”更为关键。如果热空气被困在机架中 - 或服务器机箱中 - 那么低环境温度实际上不会有任何好处。
我的服务器机房设置为 69 度。我们有一个空调机组为那个房间提供服务,它全天候 24/7 运行,使房间全年保持在 69 度。
我见过的所有服务器机房通常都在 20°C 到 25°C 之间,但根据经验,我注意到硬件对变化的敏感度比给定温度更高。我经常看到硬件在温度升高 4-5°C 后出现故障,即使是从 20 到 25。
所以稳定性是关键,当然还有气流。
18°C (65°F)。它比它必须的要冷一点,但如果出现故障,它会给我们一些宝贵的额外时间来做出反应,然后它就会变得不舒服。
https://en.wikipedia.org/wiki/Data_center_environmental_control包含供应商数据中心温度建议的有趣概述:
我们希望我们的温度在 19C 和 23C 之间,警报在 28C - 我们是 98% 的 HP 刀片服务器,因此如果我们的服务器/机箱达到该警报级别,某些服务器/机箱会“调低灯芯”以降低整体功耗(它被称为热学)。
请记住,Google 的 80°F 建议包括在因意外负载或空调故障而过热时关闭数据中心几乎没有成本。它们还包括更好地控制关键部件上的气流。
我在海军。在我们的船上,我们将房间的温度保持在华氏 65 度以下。我们会在红海中间,外面是 120 度。我们会带着一件毛衣、手套、一件外套和一件大衣走出空间(62 度),每个人都会看着我们,就像我们疯了一样。其他人都脱光了他们的 T 恤,汗流浃背。
问题是,我们的冷却系统不能很好地去除湿气。所以,如果外面很潮湿,温度上升到 70 度或更高,它开始在空间中变得粘稠。