一、算力持续增加对散热技术提出新要求,液冷是有效解决方案
随着人工智能、云计算、大数据以及区块链等技术的创新发展,以高速率、低时延和大连接为特点的 5G 通信时代到 来,作为信息基础设施的数据中心及通信设备承担的计算量越来越大,对计算效率的要求也越来越高。为了应对网络 处理性能的挑战,数据中心服务器及通信设备不断提升自身处理能力和集成度,带来了功率密度的节节攀升。这些变 化除了带来巨额能耗问题以外,高热密度也给制冷设备和技术提出了更高要求。传统风冷技术面对高热密度场景呈现 瓶颈,散热效率已经跟不上计算效率。在此背景下,液冷技术以其超高能效、超高热密度等特点引起行业的普遍关注, 液冷技术是解决散热压力和节能挑战的必由之路。
1、算力持续增加对芯片散热要求更高,液冷是解决散热压力和节能挑战的必由之路
算力持续增加促进功率密度增长,对制冷技术提出新的要求。算力的持续增加促进通讯设备性能不断提升,芯片功耗 和热流密度也在持续攀升,产品每演进一代功率密度攀升 30~50%。当代 X86 平台 CPU 最大功耗 300~400W,业界 最高芯片热流密度已超过 120W/cm2;芯片功率密度的持续提升直接制约着芯片散热和可靠性,传统风冷散热能力越 来越难以为继。芯片功率密度的攀升同时带来整柜功率密度的增长,当前最大已超过 30kW/机架;对机房制冷技术也 提出了更高的挑战。液冷作为数据中心新兴制冷技术,被应用于解决高功率密度机柜散热需求。
双碳政策下数据中心 PUE 指标不断降低。近年来,在“双碳”政策下,数据中心 PUE 指标不断降低,多数地区要求 电能利用效率不得超过 1.25,并积极推动数据中心升级改造,更有例如北京地区,对超过规定 PUE 的数据中心电价 进行加价。
制冷系统在典型数据中心能耗占比 24%,降低制冷系统能耗是降低 PUE 的有效方法。算力的持续增加,意味着硬件 部分的能耗也在持续提升;在保证算力运转的前提下,只有通过降低数据中心辅助能源的消耗,才能达成节能目标下 的 PUE 要求。制冷系统在典型数据中心能耗中占比达到 24% 以上,是数据中心辅助能源中占比最高的部分,因此, 降低制冷系统能耗能够极大的促进 PUE 的降低。有数据显示,我国数据中心的电费占数据中心运维成本的 60-70%。 随着服务器的加速部署,如何进一步降低能耗,实现数据中心绿色发展,成为业界关注的焦点。
液冷技术能实现极佳节能效果。近年来,为了降低制冷系统电能消耗,行业内对机房制冷技术进行了持续的创新和探 索。间蒸/直蒸技术通过缩短制冷链路,减少过程能量损耗实现数据中心 PUE 降至 1.15~1.35;液冷则利用液体的高 导热、高传热特性,在进一步缩短传热路径的同时充分利用自然冷源,实现了 PUE 小于 1.25 的极佳节能效果。
2、风冷是最成熟冷却方案之一,但仍存在多项不足
目前风冷技术是数据中心最为成熟和应用最为广泛的冷却方案之一。它通过冷/热空气通道的交替排列实现换热。机 架产生的热空气由机房空调(CRAC)或者机房空气处理单元(CRAH)产生的冷空气进行冷却,冷空气通过地下的 通风口输送至机架间的冷空气通道。其中,CRAC 采用制冷剂为媒介进行冷却,而 CRAH 则采用水-空气换热器对 水进行冷却。 在典型的风冷数据中心中,所有服务器机架均呈行排列。通过 CRAH 或 CRAC 单元冷却的空气通过地下通风通道进 入数据中心房间后,扩散经过服务器,吸收服务器产生的热量后进入热风通道,从而回到 CRAH 或 CRAC 单元。因 此,风冷技术会同时冷却服务器机架内的所有电子器件。
风冷技术存在低密度和相对较低的散热能力的不足。这对于高性能计算(HPC)应用尤为明显。此外,风冷技术还有 以下不足:
1)热点。由于缺乏合适的空气流量控制系统,服务器设备产生的热量和冷空气换热不均匀,容易在服务器机架之间 和内部形成局部热点。因此,为了充分消除这些热点,需要对数据中心进行过度冷却,从而额外增大了能耗。
2)机械能耗。在冷却过程中,很大一部分电能用于驱动风机和泵,从而实现空气和水的循环。
3)环境匹配性。为了维持数据中心运行稳定,采用风冷技术的系统通常需要常年不间断运行。因此,即使在冬季, 室外温度较低,也需要维持数据中心的冷却循环,不利于节能。
4)占用空间大。要达到有效冷却,数据中心通常需要大量的空间来放置空调和服务器机架。
3、相较于风冷,液冷具有低能耗、高散热、低噪声、低 TCO 等优势
液冷通过液体代替空气,把热量带走。液冷是通过液体代替空气,把 CPU、内存等 IT 发热器件产生的热量带走,就 好似给服务器局部冷却、整体“淋浴”甚至全部“泡澡”。根据目前技术研究的进程,将液冷分类为了水冷和冷媒冷 却。可用冷媒包括水、矿物油、电子氟化液等。
液冷具有低能耗、高散热、低噪声、低 TCO 等优势。液体的冷却能力是空气的 1000~3000 倍。液冷技术可实现高 密度、低噪音、低传热温差以及普遍自然冷却等优点,相对于风冷技术具有无法比拟的技术优势,是一种可以适用于 需要大幅度提高计算能力、能源效率和部署密度等场景的优秀散热解决方案。
(1)低能耗
传热路径短:低温液体由 CDU(冷量分配单元)直接供给通讯设备内; 换热效率高:液冷系统一次侧和二次侧之间通过换热器实现液液换热;一次侧和外部环境之间结合风液换热、液液换 热、蒸发汽化换热三种形式,具备更优的换热效果; 制冷能效高:液冷技术可实现 40~55℃高温供液,无需压缩机冷水机组,采用室外冷却塔,可实现全年自然冷却;除 制冷系统自身的能耗降低外,采用液冷散热技术有利于进一步降低芯片温度,芯片温度降低带来更高的可靠性和更低 的能耗,整机能耗预计可降低约 5%。
(2)高散热
液冷系统常用介质有去离子水、醇基溶液、氟碳类工质、矿物油或硅油等多种类型;这些液体的载热能力、导热能力 和强化对流换热系数均远大于空气;因此,针对单芯片,液冷相比于风冷具有更高的散热能力。同时,液冷直接将设 备大部分热源热量通过循环介质带走;单板、整柜、机房整体送风需求量大幅降低,允许高功率密度设备部署;同时, 在单位空间能够布置更多的 ICT 设备,提高数据中心空间利用率、节省用地面积。
(3)低噪声
液冷散热技术利用泵驱动冷却介质在系统内循环流动并进行散热,解决全部发热器件或关键高功率器件散热问题;能 够降低冷却风机转速或者采用无风机设计,从而具备极佳的降噪效果,提升机房运维环境舒适性,解决噪声污染问题。
(4)低 TCO
液冷技术具有极佳的节能效果,液冷数据中心 PUE 可降至 1.2 以下,每年可节省大量电费,能够极大的降低数据中 心运行成本。相比于传统风冷,液冷散热技术的应用虽然会增加一定的初期投资,但可通过降低运行成本回收投资。 以规模为 10MW 的数据中心为例,比较液冷方案(PUE1.15)和冷冻水方案(PUE1.35),预计 2.2 年左右可回收 增加的基础设施初投资。
通过将传统风冷、冷板式液冷和单相浸没液冷对比,浸没式液冷功率密度最高,机柜数量和占地面积最小,冷却能耗和冷却电费最低;而风冷的功率密度最低,机柜数量和占地面积最大,冷却能耗和冷却电费最高;冷板式液冷居中。
液冷系统通用架构:室外侧包含冷却塔、一次侧管网、一次侧冷却液;室内侧包含 CDU、液冷机柜、ICT 设备、二 次侧管网和二次侧冷却液。
中嘉和信作为深耕IDC行业十余年的数据中心服务商,致力于成为行业领先的数字化业务连续性保障服务提供商。业务覆盖金融机构、银行保险、人工智能、电商零售、交通运输、生产制造、能源化工、地产建安、生活服务等多个行业。中嘉和信为客户提供数据中心规划建设、数据中心托管运营、公有云、私有云、混合云、DCI全球组网、云网融合、信创集成服务、安全集成服务等定制化解决方案,依托经验丰富的专业技术服务团队和先进的运维服务管理体系,持续为各行业客户提供一站式数字化业务连续性保障服务,陪伴客户共同成长,助力客户实现梦想。如有业务需求请拨打010-51265666进行咨询,欢迎预约参观机房!
文章来源:互联网,如有侵权联系删除!