专栏名称: 数据中心运维管理
专注于数据中心基础设施运维与运营管理,分享运行维护经验,分享数据中心行业发展趋势及新技术应用。
目录
相关文章推荐
51好读  ›  专栏  ›  数据中心运维管理

数据中心内部冷却方法(上)

数据中心运维管理  · 公众号  · 数据库  · 2017-03-07 15:43

正文

请到「今天看啥」查看全文


如果在适当的温度条件(称为“入口温度”)下输送适量的空气,现代计算设备被设计为能够进行自身的冷却。美国采暖、制冷和空调工程师学会(ASHRAE)已经确认,所有现代和传统硬件均被设计为可用于在进气温度高达27摄氏度(80.6华氏度)的情况下实施长期可靠的操作。选择该温度以提供具有最大能量效率的良好冷却。

硬件设备也可以在几天内处理和应对高达35摄氏度(95华氏度) 的操作温度条件,而不会出现故障率的明显增加。例如在部分冷却系统发生故障或异常炎热的天气情况下。能源使用量会随着风扇转速的增加而增加,但短期低效率不会抵消长期节能目标的实现。为了保险起见,许多数据中心设计者和管理人员选择在大约24摄氏度(75华氏度)的条件下实施操作运营,但是没有理由将操作运营环境温度冷却到这一温度之下。

密封遏制

即使在实施了较高的操作运营温度的情况下,有效的冷却策略仍然是至关重要的。改善冷却的最佳方法是分离热空气和冷空气。 “密封遏制”冷空气供应或热空气排放,防止二者的混合,但是您企业的数据中心需要采取两个步骤来成功完成此任务。

首先,机柜必须实行面对面和背对背的安排布置,使得机架前面的通道(或称“通风走廊”)与排气通道(或称“热”通道)交替。注意,在较高的入口温度条件下,我们此处所提到的是 “通风走廊(cool aisle)”而不是“冷通道(cold aisle)”。

第二,机柜之间的间隙必须用填料封闭,所有未使用的面板空间必须用消隐板(blanking panel,即实心板代替缺少的计算硬件)堵塞。这可以防止来自计算硬件背面的热空气再循环到前部,而提高设备的入口温度。

即使采取了上述这些步骤措施后,空气仍然可以在机柜的顶部和机架行末的周围流通,所以最终的解决办法是竖立更多的屏障,以遏制空气流通。无论是热过道还是冷过道都可以采用这种方式。屏障可以是诸如塑料窗帘,当然其也可以在机架行的端部或者悬挂在机柜上方以进行防护和防止静电。这被称为“部分遏制”,因为部分的空气仍然可以通过帘缝渗漏,但这是非常有效的。

“完全密封”要求带有门的实心端板,以及机柜顶部和天花板之间的实体屏障,或安装的天花板与机柜高度相匹配。完全遏制显然成本造价更贵且更不灵活,所以两者之间的选择通常是基于企业数据中心的预算或现有设施的限制。

在新的数据中心设计中,首先应考虑完全密封的方案,因为其是最有效的,而剩余部分的管道、电气和电缆桥架可以设计成能够容纳实体屏障。但如果天花板的高度或预算限制了这一点的实施,那么部分遏制要比什么也没有要好。

“热源”冷却

需要消耗大量的能量来推动冷空气通过房间,地板下方或管道。将冷却单元安置在靠近计算设备的地方有助于显着降低风扇的能耗。还使得冷却单元更容易在其可再循环之前吸入热回流空气。但是,最终仍然必须将热量排出到室外,这需要循环流体通过冷却单元。这需要管道在机柜区域之外,要么在地板下,要么在机架顶上。

如果您企业不想采用数据中心管道输送水,那么替代品是制冷剂,如果一旦发生泄漏,则会变成无害气体。但是制冷剂管道的安装和改变也更为困难和成本昂贵。虽然数据中心采用水冷却或将带来泄漏问题,但是通过适当的安装以及诸如泄漏检测系统和排水管之类的预防措施,则可以降低泄漏损坏昂贵硬件的风险。







请到「今天看啥」查看全文