0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

数据中心冷却标准

jf_51241005 ? 来源:jf_51241005 ? 作者:jf_51241005 ? 2024-05-31 11:23 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

众所周知,环境因素会严重影响数据中心设备。过多的热量积聚会损坏服务器,可能导致其自动关闭。经常在高于可接受的温度下运行服务器会缩短其使用寿命,并导致更频繁的设备更换。

不过,危险不仅仅在于高温。高湿度也会导致冷凝、腐蚀和灰尘等污染物堆积在数据中心的设备上。同时,低湿度会导致两个物体之间发生静电放电,从而损坏设备。

而经过适当校准的冷却系统可以防止这些问题,并让数据中心全天候保持正确的温度和湿度,从而最终会降低设备损坏造成的运营风险。因此,数据中心运营商可以通过一些方法确定数据中心所需的冷却标准。

数据中心冷却标准

例如,ASHRAE(美国采暖、制冷与空调工程师学会)制定并发布了数据中心的温度和湿度指南。最新版本根据设备分类概述了可以可靠运行数据中心的温度和湿度水平。

在最新的指南中,ASHRAE 建议 IT 设备应遵循以下使用方式:

温度在 18 至 27 摄氏度之间。

露点为 -9 至 15 C摄氏度。

相对湿度为60%。

确定 IT 设备的适当环境取决于其分类(A1 至 A4),该分类基于设备的类型及其运行方式,按敏感度降序排列。A1 设备是指需要最严格环境控制的企业服务器和其他存储设备。A4 级适用于 PC、存储产品、工作站和大容量服务器,允许的温度和湿度范围最广。

这些指南的先前版本侧重于可靠性和正常运行时间,而不是能源成本。为了与数据中心对节能技术和效率的日益关注保持一致,ASHRAE 开发了更好地概述环境和能源影响的课程。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据中心
    +关注

    关注

    16

    文章

    5256

    浏览量

    73631
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Kao Data与Cadence合作验证数据中心间接蒸发冷却设计

    Kao Data 计划在占地 36 英亩的园区内建立四个数据中心,目前已完成其中一个,即 KDL1 数据中心,这是英国第一个 100% 自由冷却的大规模主机托管设施。该数据中心园区旨在
    的头像 发表于 06-11 10:43 ?538次阅读

    数据中心冷却技术的发展趋势

    预计到2025年,全球发电量将达到26,787TWh,其中数据中心和加密货币将消耗约536TWh,约占全球总发电量的2%[1],[2]。按照目前的趋势,数据中心的电力消耗到2030年很可能达到甚至超过1,000TWh,接近全球总电力消耗的5%。
    的头像 发表于 05-15 13:38 ?383次阅读

    ? 尼得科从5月开始量产AI数据中心新型冷却系统产品——行间式(In Row式)大型CDU

    GPU和CPU发热量增加趋势的影响,对更高性能且高效率冷却系统的需求不断增加。本产品是一种可以同时冷却多台装有GPU、CPU的AI服务器机架的CDU,是尼得科为提高未来数据中心冷却效率而推出的新型解决方案产品。通过将本产品装配到
    的头像 发表于 04-27 15:43 ?301次阅读
    ?  尼得科从5月开始量产AI<b class='flag-5'>数据中心</b>新型<b class='flag-5'>冷却</b>系统产品——行间式(In Row式)大型CDU

    ST电机控制方案如何为数据中心等高功率冷却系统“降温增效”

    数据中心、暖通空调(HVAC)以及电池储能系统(BESS)飞速发展的当下,高功率冷却系统的重要性愈发凸显。作为这些系统的关键一环,电机控制技术的优劣直接影响着冷却效率与能耗。为解决这些痛点,ST
    的头像 发表于 04-18 09:24 ?1108次阅读
    ST电机控制方案如何为<b class='flag-5'>数据中心</b>等高功率<b class='flag-5'>冷却</b>系统“降温增效”

    华为亮相2025数据中心冷却高峰论坛(长三角)

    此前,2025年4月2—3日,由中国制冷学会主办的2025数据中心冷却高峰论坛(长三角)在上海成功举办。本次论坛汇聚数据中心行业精英领袖、技术专家、高校学者等,聚焦智算时代数据中心前沿制冷技术和创新
    的头像 发表于 04-08 14:25 ?782次阅读

    Molex莫仕助力数据中心浸没式冷却系统未来发展

    伴随数据中心规模的日益扩大,算力需求不断增加,传统空气冷却方法愈发力不从心。浸没式冷却(将硬件浸入介质液体中)提供了更有效的热管理方法。然而,这种技术也带来了独特的挑战,特别是在材料兼容性、温升(T-rise)和互连设计等方面。
    的头像 发表于 03-17 15:05 ?599次阅读

    数据中心中温冷源供应系统

    数据中心冷源供应系统设计说明 在建筑一层设置冷冻站为数据中心供应中温冷冻水,一层设置两套制冷系统。每套制冷系统设计采3869KW变频离心式水冷冷水机组2+1台,为了实现系统最大节能效果,每合冷水机组
    的头像 发表于 02-26 14:35 ?350次阅读
    <b class='flag-5'>数据中心</b>中温冷源供应系统

    数据中心机房冷水系统

    如需了解详细产品资料、配置方案、产品价格、产品技术参数; ? ? ? 依据自身情况选择冷却技术 数据中心在选择冷却技术时,不能盲目跟风,而要充分考虑自身的实际情况。规模较小、功率密度较低的数据
    的头像 发表于 02-24 13:52 ?371次阅读
    <b class='flag-5'>数据中心</b>机房冷水系统

    超云亮相2024数据中心标准大会,展示AI全栈推理硬件创新成果

    和技术领袖,共同探讨数据中心领域的最新趋势与实践成果。 作为专业的数据中心产品和服务提供商,超云受邀参会,展示了全新升级的AI全栈推理硬件创新成果,并与北京化工大学联合推出了自主研发的板式液冷核心冷却介质——ThermoSafe
    的头像 发表于 11-22 09:54 ?500次阅读
    超云亮相2024<b class='flag-5'>数据中心</b><b class='flag-5'>标准</b>大会,展示AI全栈推理硬件创新成果

    emc标准数据中心的应用

    随着信息技术的飞速发展,数据中心已成为现代社会的基础设施之一。数据中心内部署了大量的服务器、存储设备、网络设备和电源系统等,这些设备在运行过程中会产生电磁干扰,同时也可能受到外部电磁干扰
    的头像 发表于 11-01 15:15 ?734次阅读

    引领智算中心冷却技术,下一个风口在哪里?

    。特别是在智算中心的算力集群高密散热和节能降耗方面的需求,更是对传统数据中心冷却技术提出了更高要求。在这样的背景下,我们有幸邀请到维谛技术(Vertiv)的两位专家——S
    的头像 发表于 10-14 15:00 ?845次阅读
    引领智算<b class='flag-5'>中心</b>的<b class='flag-5'>冷却</b>技术,下一个风口在哪里?

    浅析如何降低数据中心电力能耗

    摘要:“新基建”为数据中心的建设开辟了广阔的发展前景。然而,鉴于数据中心巨大的能源消耗,政府和业界对其给予了高度关注。一些省份和城市对新建或改造的数据中心设定了严格的PUE(能源使用效率)标准
    的头像 发表于 09-02 12:31 ?632次阅读
    浅析如何降低<b class='flag-5'>数据中心</b>电力能耗

    怎样保障数据中心不间断电源不断电 提供可靠安全的供配电#数据中心

    数据中心配电系统
    安科瑞王金晶
    发布于 :2024年08月29日 14:51:36

    水冷电阻负载组专为数据中心冷水机组调试和测试应用而设计#电阻 #负载组

    数据中心
    深圳崧皓电子
    发布于 :2024年08月14日 07:01:37

    混合冷却在数据中心中仍将是必不可少的#混合冷却

    数据中心
    深圳崧皓电子
    发布于 :2024年08月06日 06:58:06