液冷数据中心专题研究:制冷革新减耗“东数西算”
(报告出品方/作者:开源证券,诸海滨,赵昊)
1、思考一:什么是液冷数据中心?其重要性如何?
1.1、政策背景:国家政策指导全国新建大型、超大型数据中心平均PUE降到1.3以下、枢纽节点降到1.25以下
全球主要国家承诺最晚于 2050 年完成碳中和计划,数据中心绿色、低碳政策陆 续出台实施。政府间气候变化委员会在 2018 年 10 月 8 日发布特别报告提出将全球 变暖限制在 1.5°C,需要在土地、能源、工业等方面加速转型,到 2050 年左右达到 “净零”排放。切实到各国的数据中心的低碳政策,美国政府通过 DCOI 数据中心 优化倡议等举措,以整合和关闭数据中心、设定数据中心 PUE 及服务器使用率具体 标准等方式,实现了数据中心 PUE 从平均 2.0 以上下降到近一半大型数据中心达到 1.5 甚至 1.4 以下。
新加坡发布的《绿色数据中心技术路线图》提出提高冷却设备效 率、IT 设备温湿度耐受能力、数据中心的资源调度和负荷分配集成优化能力等建议。欧盟通过 2020 年欧盟数据中心能源效率行为准则的最佳实践指南和和欧洲数据中心 能源效率现状白皮书进一步细化和规范了数据中心 PUE、SUE、DCiE 等绿色指标。
为推动行业规范和快速发展,国家工信部等部门相继发布数据中心指导政策。2021 年 11 月,国家发改委联合网信办、工信部、能源局共同发布《贯彻落实碳达峰 碳中和目标要求推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》,指 出坚持集约化、绿色化、智能化建设,加快节能低碳技术的研发推广,支持技术创 新和模式创新。全国新建大型、超大型数据中心平均电能利用效率降到 1.3 以下,国 家枢纽节点进一步降到 1.25 以下,绿色低碳等级达到 4A 级以上。
1.2、概念解析:液冷技术在散热效率、适用功率等方面优于风冷,其中浸没式液冷可将平均PUE降至1.2以下
数据中心基础设施是支撑数据中心正常运行的各类系统的统称,具体包括制冷、配电、机柜、布线、监控等系统,是数据中心的组成部分之一。数据中心是用于在 网络上传递、加速、展示、计算和储存数据信息的物理场所,主要应用于对数据计 算和储存有较大需求的组织。一个完整的数据中心由 IT 设备和基础设施共同构成。数据中心可根据基础设施的标准机架数量进行划分。《工业和信息化部、发展改 革委、国土资源部等关于数据中心建设布局的指导意见》文件中,将数据中心划分 为超大型、大型、中小型三类。不同类型的数据中心机架规模不同,对应的基础设 施解决方案也不相同。
数据中心基础设施可按照不同制冷方式进行划分风冷数据中心基础设施和液冷 数据中心基础设施。风冷方式发展起步早,技术较为成熟,液冷方式是近几年由于 数据中心对散热需求提升而出现的新方式,技术尚处于发展阶段。液冷方式又分为 冷板式液冷和浸没式液冷两种,其中浸没式液冷方式可再细分为相变浸没式液冷和 非相变浸没式液冷。
冷板式液冷为间接接触型,浸没式液冷为直接接触型。风冷是以空气作为冷媒, 通过空气与发热部件接触换热实现散热的冷却方式。液冷是以液体作为冷媒的冷却 方式,利用液体将数据中心 IT 设备内部元器件产生的热量传递到设备外,从而冷却 IT 设备。其中,冷板式液冷是一种间接接触型液冷,将冷板固定在散热对象上,液 体在冷板内流动将设备热量传递带走,实现散热。浸没式液冷是一种直接接触型液 冷,将服务器等有散热需求的 IT 设备完全浸没在冷却液中,通过液体的循环流动或 相变进行冷却。
浸没式液冷可将数据中心 PUE 降低至 1.2 以下,优于风冷和冷板式液冷。对比 不同制冷方式,浸没式液冷冷却液和发热设备充分接触,散热效率更高,可将数据 中心 PUE 降低至 1.2 以下,运行更稳定,同时由于没有风扇,噪音更低,符合国家 发改委对数据中心建设的政策指导目标,是未来数据中心基础设施建设的发展方向。两相浸没液冷的能耗低于单相浸没液冷。数据中心浸没式液冷技术的能耗主要 由促使液体循环的泵和室外冷却设备产生,根据冷却液换热过程中是否发生相变可 分为单相浸没式液冷与两相浸没式液冷。其中,两相浸没式的冷却液循环是无源的, 因此两相浸没液冷的能耗一般要低于单相浸没液冷。由于浸没式液冷的室外侧通常 是高温水,其室外冷却设备往往可以利用自然冷源且不受选址区域的限制,从而起 到节能减排的目的。
1.3、典型应用:液冷技术商用条件逐渐成熟,国内外实践案例不断增多
随着液冷相关技术日益成熟,国内外已有多家企业开始面向客户提供针对不同 散热需求下的液冷技术解决方案,一些科技公司也将基于液冷技术的散热系统部署 于公司数据中心。阿里云作为国内领先的云服务提供商,是最早探索和实践大规模液冷方案的科 技公司之一。2020 年 1 月,阿里云宣布向全社会开放“浸没液冷数据中心技术规范”, 2020 年 9 月,仁和数据中心开服,采用服务器全浸没液冷等多项节能技术进行规划 设计与建造,PUE 低至 1.09,相比传统风冷数据中心每年可节省 3000 万度电,该 数据中心成为我国首座绿色等级达到 5A 级的液冷数据中心;2021 年 12 月,阿里云 发布磐久系列液冷一体机 Immersion DC 1000,整体能耗可下降 34.6%。
中科曙光面向人工智能、大数据等多种应用场景,推出硅立方液体相变冷却计 算机。硅立方液体相变冷却计算机采用创新的浸没液冷技术,PUE 低至 1.04,节能 效果显著。硅立方将服务器芯片、主板在内的所有计算部件浸没于液态冷媒中,将 部件产生的热量通过相变换热的方式转移出设备,实现了高效散热。同时,硅立方 一个机柜功率密度可达到 160kW,是传统风冷数据中心的 4-5 倍,能效比提升了 30%。
马来西亚气象局数据中心为更好地捕捉局部强对流天气,满足三维播报所增加 的 27 倍算力需求,配置了联想的冷板式液冷设备。在该系统中,水被送入服务器冷 板,在组件周围循环,然后吸收热量离开冷板,进入冷源实现冷却。据测算,马来 西亚气象局应用液冷系统后,散热效果高达 90%,有力地支持了气象预测的精度提 升。Facebook 针对新加坡潮湿天气打造了 Facebook 新加坡亚洲数据中心。该数据中 心采用 StatePoint Liquid Cooling 液冷系统,用水来降低气温,可以节约最高 20%的 用水量。Facebook 还计划全部使用可持续能源来给整个数据中心供电。
在浸没式液冷解决方案的供给端,国内外均有企业在积极布局。例如,总部位 于美国的 Green Revolution Cooling 主要提供数据中心单相浸没式液冷解决方案,面 向高性能计算、边缘数据中心、区块链和加密货币等场景提供具有完整冷却和电力 基础设施的一站式模块化数据中心;总部位于荷兰的 Asperitas 采用自然对流驱动的 单相浸没式液冷技术,其 HP Czone 系列产品可为各种高性能计算场景提供一站式解 决方案。在国内,浪潮信息于2018年推出了小型可移动的浸没式液冷超算TS4220LC;中科曙光旗下的曙光数创推出了相变浸没式液冷配套解决方案 C8000,能够将 PUE 值降到 1.05 以下。
随着边缘算力需求的提升,液冷技术应用场景将从云端扩展到边缘。终端算力 需求的提升使得传统云算力逐渐下沉到边缘,边缘计算服务器功率密度及散热需求 同步提升。为了降低数据中心制冷能耗,部分边缘数据中心也开始引入液冷边缘服 务器,以提升边缘数据中心的能效水平。
2、思考二:液冷数据中心的现状、规模和增长逻辑如何?
2.1、产业现状:在我国高密度数据中心市场拥有更高增速,2021年30kW以上规模增速达31%
数据中心基础设施的发展依托于数据中心的发展。数据中心发展经历了三个发 展阶段。第一阶段:第一代数据机房出现并发展,由于计算机以电子管和晶体管为 主,体积大、散热需求高,催生精密机房专业空调等专业设备的出现。第二阶段:集成电路迅速发展,进入微型计算机时代,数据机房形态向中小型发展。第三阶段:互联网的兴起,5G、工业互联网、人工智能、云计算、大数据等技术和新应用的快 速发展催生数据处理和储存的需求,数据机房逐渐向数据中心新形态演变。
全球视角。2020 年全球功率超过 10kW/柜的机架占比达到近 30%。全球计算机算力日益增 长,数据中心功率密度相应提升、平均机架功率也随之不断提升,根据 Uptime Institute Intelligence 数据,2020 年全球 5-9kW/柜的机架占比最多,功率超过 10kW/柜的机架 占比达到近 30%,单机架功率的提升与高密度服务器规模部署和应用具备较强相关 性。当前,Intel、IBM、华为、浪潮、曙光等厂商陆续加速推进高密度服务器的产品 设计与市场布局。全球数据中心市场以 10%的 CAGR 稳定增长。全球数据中心市场规模由 2017 年的 465.5 亿美元逐步增长至 2021 年的 679.3 亿美元,市场增速保持在 10%左右, 据中国信通院预测,2022 年全球规模有望接近 750 亿美元。
我国视角 在我国高密度数据中心市场规模拥有更高的增速,特别是 30kW 以上。近年来, 国内数据中心建设进入高峰期,新建数据中心数量快速增长,功率密度逐年上升。根据《2021-2022 年度中国数据中心基础设施产品市场总报告》,2021 年单机柜功率 在 10kW 以上的数据中心市场规模快速增长,增长率超过 10%,其中 30kW 以上的 高密度数据中心增长速度最快,达到 31%。
预计到 2023 年底全国数据中心机架规模 CAGR 约 20%。从产业规模上来看, 数据中心的产业规模快速增长。根据中国信通院的数据显示,2021 年,中国数据中 心在用机架数量达到 520 万架,较 2020 年增加超过 100 万架。《新型数据中心发展 三年行动计划(2021-2023 年)》指出,到 2023 年底,全国数据中心机架规模年均增 速保持在 20%左右,预计到 2023 年,中国数据中心在用数量超过 800 万架。数据中 心机架数量的持续增长表明数据中心产业的整体规模不断扩大,同时反映数据中心 基础设施产业不断发展。
我国数据中心及其基础设施市场规模保持较快增长趋势。根据中国信通院数据 显示,2021 年中国数据中心市场规模超过 1500 亿元,预计 2022 年中国数据中心市 场规模突破 1900 亿元人民币,呈现较快的增长趋势。数据中心的产业规模的增长表 明数据中心基础设施的市场规模也呈现快速增长的趋势。根据赛迪顾问数据,2019 年我国数据中心基础设施的市场规模达 161.9 亿元,预计到 2025 年达到 461.2 亿元。
2021 年度全国数据中心平均 PUE 为 1.49。近年来,我国数据中心绿色发展进程 日益加快,数据中心的能效水平不断提高,电源使用效率持续降低。2021 年度全国 数据中心平均 PUE 为 1.49,并且有相当数量的数据中心 PUE 超过 1.8 甚至 2.0(数 据来源:CDCC),和国家《国家发展改革委等部关于严格能效约束推动重点领域节 能降碳的若干意见》要求的到 2025 年数据中心 PUE<1.5 的总体规划已经基本相当。但是随着超高密度数据中心的建设节奏加快,传统风冷已无法满足高性价比、低 PUE 的需求,因此改进数据中心制冷等基础设施技术,提高制冷效率,减少制冷系统的 能耗水平,成为未来发展方向。
液冷数据中心基础设施市场接受度不断提高。伴随着液冷数据中心及其基础设 施的逐步大规模商业应用,以及液冷技术的优势不断显现和传统观念的改变,液冷 数据中心的市场接受度将不断提高,技术设施普及速度加快。液冷数据中心基础设施技术和性能不断优化。一方面,近几年国家政策支持液 冷先进数据中心技术发展,各项文件鼓励企业开展新兴数据中心预制化、液冷等设 施层技术开发,另一方面,液冷基础设施将不断向预制化、智能化、低碳化方向发 展。
2.2、下游市场:互联网、金融和电信行业液冷应用前景较好
由于液冷技术具有高效制冷的特点,液冷数据中心及其基础设施主要应用于高 性能计算机的领域,除了未公开披露的部分高性能计算机项目,液冷技术目前应用 的行业主要有互联网、金融、电信、能源、生物、医疗等。2019 年液冷数据中心主 要运用在以超算为代表的应用中。其中,互联网、金融电信占比分别为 20%、17% 及 15.5%。随着互联网、金融和电信行业业务量的快速增长,对数据中心液冷需求 将会持续扩大。据赛迪顾问数据,预计 2025 年互联网行业液冷数据中心占比达到 24%,金融行业达到 25%,电信行业达到 23%。
互联网行业的电商、社交平台、短视频等领域龙头企业较多,用户群体大,业 务体量大,数据中心算力需求大,单机柜密度可达到 10kW 甚至更高,是目前液冷 数据中心的核心客户。根据赛迪顾问数据,2019 年互联网液冷数据中心市场规模为 70.2 亿元,预计 2025 年市场规模增长至 319.3 亿元,年复合增长率达 28.72%。随着金融行业信息系统的云化迁移和互联网金融产品的普及,金融行业敏捷响 应、业务及时变更等需求增加,金融行业液冷数据中心算力需求进一步提升。根据 赛迪数据,2019 年金融液冷数据中心市场规模为 59.6 亿元,预计 2025 年市场规模 增长至 332.6 亿元,2019-2025 年 CAGR 达 33.18%。
电信行业紧抓综合信息服务需求 日益云化的趋势,全面推进“云改”,液冷数 据中心需求量快速增长。根据赛迪数据,2019 年电信行业液冷数据中心市场规模为 54.4 亿元,预计 2025 年市场规模增长至 306 亿元,2019-2025 年 CAGR 达 33.36%。
2.3、产业逻辑:单机柜功率快速增加背景下,液冷是风冷替代技术的代表,数据中心散热“革命”势在必行
预计到 2025 年全球数据中心平均功率达到 25kW。数据量的大规模增长需要海 量服务器以支撑大量的计算能力,受限于数据中心建设面积和环保规定,增加单机 柜功率成为调和不断增长的算力需求和有限的数据中心承载能力的关键解决方案。据赛迪顾问预测,快速增长的数据中心算力将推动高功率单机柜快速普及,预计到 2025 年全球数据中心平均功率达到 25kW。PUE=1.5 的数据中心,27%来自制冷系统功耗。大量数据吞吐和运算使得作为 新兴技术“大脑”的数据中心面临巨大的能耗和散热挑战。一方面,服务器等 IT 设 备的计算、存储功耗庞大;另一方面,冷却数据中心 IT 设备的功耗也在快速增长。以一个 PUE=1.5 的数据中心为例,其中 67%的电力消耗来自 ICT 设备功耗,27%来 自制冷系统功耗,5%功耗由供配电损耗和 1%由其他设备产生。
液冷技术是风冷替代技术的代表。随着数据中心业务量不断增加,导致冷负荷 密度提升,传统空调系统面临散热不足、能耗严重的问题。针对传统空调系统的不 足,业内对空调技术模式进行探索创新,通过一系列冷风替代技术解决高能耗问题, 液冷技术则是其中代表。
液冷方式可满足 2.7-30kW /机柜的数据中心散热需求。在数据中心制冷领域存 在多种技术路径的实现制冷目的,根据《绿色数据中心白皮书》指出的不同密度数 据中心对应的制冷方式,传统的风冷方式只能满足 2.7kW/机柜的数据中心散热需求, 已经无法完全满足数据中心日益增长的散热需求,数据中心制冷领域的技术出现了 革新。目前,液冷技术凭借着高稳定性和高散热效能逐渐体现出优势,水冷/液冷方 式可满足 2.7-30kW /机柜的数据中心散热需求,能够解决超高热流密度的散热问题。
15kW/柜以上时,液冷技术更具经济性优势。除风冷技术和液冷技术之外,制 冷设备节能技术还包括间接蒸发冷却等。综合应用端而言,15kW/柜以上时风冷技术 成本上升,液冷技术显露其经济性优势。作为液冷目前主流的冷板式液冷和浸没式 液冷,当前主要用于高功率密度型业务如 HPC(High Performance Computing,高性能 计算)和人工智能计算,通常单机柜功率超过 20kW。当前冷板式液冷主要应用于一 般高密度的数据中心领域,而浸没式液冷目前主要集中应用于超高密度数据中心领 域。
相比传统风冷技术,液冷技术的技术优势主要体现在一下几个方面:(1)更高的能源利用率。由于液体具有较高的导热率和比热容,更够更快地传 导以及更有效地吸收热量,能够保障 CPU 在一定范围内进行超频工作不会出现过热 故障,有效提升服务器的适用效率和稳定性。(2)更高的空间利用率。液冷数据中心省却空调系统和相应基础设施的建设, 无需安装冷热通道封闭设施,更不需要架空地板,节省了大量的空间,从而能够在 单位空间布置更多的服务器,提高数据中心运算效率。因此液冷技术比传统冷却方 式具有更高的空间利用率。
(3)能够实现节能降噪。液冷技术去掉了风冷基础设施,只增加了循环泵,节 省建设成本,液冷系统所使用的泵和冷却液系统与传统的空调系统相比噪声更小。因此采用液冷技术更够为数据中心实现节能、降噪。(4)无视海拔、地域的差异,同时余热可以创造经济价值。由于液体比热容不 受海拔和气压影响,可以保持较高的散热效率,从而保证数据中心在高海拔的运行 效率和性能。余热能够以液体为载体,通过热交换接入楼宇采暖系统和供水系统中, 满足附近居民的供暖、温水供应等需求,为数据中心创造附加价值。
随着芯片技术与工艺的进步,服务器计算能力增长快速,但总体功耗也随之提 升。预计到 2025 年,数据中心的 x86 CPU 芯片 TDP 提升至 350W 左右,ARM CPU 芯片的 TDP 提升至 600W 左右,而用于人工智能计算的 NPU/GPU 芯片会提升到 750W 左右。同时期对应的典型服务器 (2U 高度 2 路处理器 )功率也持续演进,x86 CPU 服务器会提升到 725W 左右,ARM CPU 服务器提升至 1000W 左右,用于人工 智能计算的 NPU/GPU 服务器会提升到 1500W 左右。基于这些预测,2025 年主流机 柜功率预计会达到 12~15kW/柜,未来会继续增加到 25kW-50kW/柜,甚至更高(数 据来源:国家信息中心等《“碳达峰、碳中和”背景下数据中心绿色高质量发展研究 报告(2022)》)。在此背景下,我们认为数据中心散热“革命”势在必行。
2.4、市场空间:预计2025年我国液冷数据中心基础设施市场规模达245亿元
预计 2025 年中国液冷数据中心基础设施市场规模可达 245.3 亿元。近年来,随 着液冷数据中心技术设施商业化进程加快,以及市场需求高涨,液冷数据中心及基 础设施市场规模将保持持续增长。据赛迪顾问预测,中国液冷数据中心市场规模预 计由 2019 年的 260.9 亿元增长至 2025 年的 1283.2 亿元,中国液冷数据中心基础设 施市场规模预计由 2019 年的 64.7 亿元增长至 2025 年的 245.3 亿元。
细分市场来看,预计浸没式液冷数据中心基础设施占比会持续扩大。2019 年, 冷板式液冷数据中心基础设施和浸没式液冷数据中心基础设施占比分别为82%、18%。冷板式液冷技术发展较早,目前冷板式液冷数据中心产品在市场上占比较高,但浸 没式液冷是直接接触的制冷方式,相较于冷板式液冷,更大程度上利用液体的比热 容特点,制冷效率更高,可以更有效降低数据中心 PUE,未来浸没式液冷数据中心 基础设施将会占据更多市场。据赛迪顾问预测,2025 年,浸没式液冷数据中心基础 设施占比预期提升至 41%。
3、思考三:液冷数据中心的竞争格局以及各个公司的业务情况如何?
3.1、竞争格局:国外尚未形成龙头,国内液冷厂商领跑技术前沿
国外尚未形成龙头厂商,国内企业具有先发优势。液冷技术作为高新技术,覆 盖多学科、多领域,技术壁垒高,目前国内外数据中心基础设施厂商液冷技术普及 率尚较低,掌握该技术的企业较少。国际市场中,主要厂商在液冷技术和产品方面 还处于实验或初步应用阶段,市场中尚未形成较强龙头,市场竞争格局未定,且由 于中国数据安全保护政策,国外厂商产品进入中国较为困难。国内市场中,部分企 业经过多年的技术积累和沉淀,已经展现出较为明显的技术优势和市场先发优势, 未来行业内将会形成龙头厂商占据主要市场份额的竞争格局。
在高密度数据中心领域,曙光数创是国内最早实现冷板式液冷和浸没相变液冷 技术大规模商用化部署的公司之一,阿里巴巴目前也已实现浸没单相液冷产品的部 署;华为、浪潮目前实现商用的主要以冷板产品为主;广东合一、中国长城当前以 喷淋式液冷产品为主。
3.2、曙光数创:浸没相变液冷领军企业,背靠国产算力龙头中科曙光
在数据中心基础设施产品方面,曙光数创自 2011 年即确立了冷板和浸没两个液 冷技术路线,并相继研发形成了冷板液冷数据中心基础设施产品-C7000 系列和浸没 相变液冷数据中心基础设施产品-C8000 系列。截至 2022 年 7 月 31 日,公司已取得 91 项专利和 27 项软件著作权,其中发明专利 31 项。冷板液冷数据中心基础设施产品-C7000 系列:国内首款量产的冷板液冷数据中 心基础设施产品及服务器冷板散热套件,采用风冷和液冷混合散热模式-服务器主要 热源 CPU 利用液冷冷板进行冷却,其他热源仍采用风冷方式进行冷却,可使得数据 中心 PUE 降至 1.2 以下,可以使得服务器满载运行 CPU 温度不高于 60℃,比风冷 降低约 30℃。截止 2022 年,冷板产品已经迭代至第四代产品。
浸没相变液冷数据中心基础设施产品-C8000 系列:公司于 2019 年首次实现 C8000 产品在国家级重大科研装置大规模部署,意味着数据中心行业全浸式液体相 变冷却技术在全球范围内首次实现了大规模产品转化和部署。该系列产品具有高密 度换热能力,最高可达到 420kW;机柜最大设计功耗大于 200kW,远超传统数据中 心单机柜设计功耗;采用强化沸腾封装的方式,换热区域采用高密翅片来强化沸腾 界面的沸腾换热,最高可实现 100W/ c ㎡以上的散热密度。目前 C8000 系列产品应 用于多个国家重大科研装置,累计建设规模超过 200MW。
浸没式液冷产品业务规模逐年增长,毛利率维持高位。从收入结构来看, 2019-2021 年,公司 C8000 系列产品销售规模呈上升趋势,至 2021 年浸没式液冷产 品创收 3.33 亿元,占总营收的 82%。自 2020 年以后,公司 C8000 全浸式液冷系统 的毛利率始终维持在 40%以上的较高水平。公司下游客户主要为数据中心整体集成 商和数据中心最终使用方,前两大客户信息并未披露。
3.3、浪潮信息:发布全栈液冷产品,天池投产实现了业界首次冷板式液
冷整机柜大批量交付 2022 年,浪潮将“All In 液冷”纳入公司发展战略中,全栈布局液冷,实现服 务器全产品线支撑液冷,并进一步升级液冷智算中心解决方案,实现数据中心 PUE<1.1。目前,浪潮信息已拥有 100 多项液冷技术领域核心专利,并已参与制定 数据中心液冷相关设计的技术标准和测试规范。2022 年,浪潮信息发布全栈液冷产品,通用服务器、高密度服务器、整机柜服 务器、AI 服务器等四大系列均支持冷板式液冷,同时浪潮信息亚洲最大液冷数据中 心研发生产基地-天池正式投产,年产能达到 10 万台,实现了业界首次冷板式液冷 整机柜的大批量交付,整体交付周期在 5-7 天之内,助力数据中心绿色低碳发展。
浪潮信息液冷产品和解决方案已经在互联网、金融、教科研等领域得到广泛应 用。如,浪潮信息与京东云联合推出天枢(ORS3000S)液冷整机柜服务器,已经在 京东云数据中心实现规模化部署,为京东 618、双十一、虎年央视春晚红包互动等提 供了基础算力保障,性能提升 34%-56%,助力京东云数据中心降低 PUE,实现低碳 节能。
3.4、华为:FusionServer Pro布局冷板全液冷系统,应用于数据中心高功耗密度服务器机柜部署场景
2019 年,华为发布 FusionServer Pro 全液冷系统解决方案,该智能服务器使用 冷板式液冷,是面向 IT 设备高密部署,减少 TCO 投入,绿色节能,并有效提升运 算效率的制冷解决方案,可以广泛应用于大学、公有云、企业等的计算业务。该方 案采用密闭式全液冷机柜设计,全部的热量均由液冷带走,机房无需部署 IT 设备制 冷空调。
应用在数据中心高功耗密度服务器机柜部署场景时,全液冷系统可以独立提供 服务器在机房的散热,单个机柜可以集成 3 个 E9000,单个 E9000 最多支持 16 个 2P 液冷计算节点。单个机柜最大支持 65KW 散热能力,解决采用传统风冷空调制冷部 署困难的问题。且全液冷系统最高支持 32℃供水温度,支持自然冷却,冷却 PUE 可 最低至 1.05,高能效属性明显。当前,华为全液冷系统的应用产品包括 FusionServer Pro E9000 融合架构刀片服务器、华为 FusionServer Pro X6000 高密度服务器等。
3.5、阿里云:推出业内首款单相浸没液冷解决方案,实现创新散热技术与IT系统的完美融合
2021 年 12 月 22 日,阿里云在“第十六届中国 IDC 产业年度大典”上正式向业 界发布行业首款单相浸没液冷解决方案—磐久 Immersion DC 1000,将绿色液冷技 术与极致算力平台结合,实现基础设施散热能力和服务器、网络设备高效融合并整 体交付,整体能耗可下降 34.6%,助力低碳绿色数据中心构建。
区别于业界其他液冷解决方案,磐久 Immersion DC 1000 可同时实现高能效与高 可靠性,数据中心整体可靠性等级接近 T4(相当于国标 A 级)。液冷 AI 一体机可支 持最大 40P Flops 算力并提供机柜间高达 25.6T 的 AI 互联网络带宽能力;液冷存储 一体机可支持 3.4P 的超大存储能力。与传统数据中心散热产品多聚焦在基础设施风 火水电不同,磐久液冷 Immersion DC 1000 系列最核心的是将基础设施散热能力和服 务器设备、网络设备进行高效整合并融合在一起进行整体交付,且不受地域影响可 在全球任何气象区域部署并可轻松实现极致 PUE1.09。
3.6、英维克:Coolinside全链条液冷解决方案在超高算力场景完成商用
英维克的 Coolinside 全链条液冷解决方案,采用端到端全链条自主技术,不但 高效节能,能够充分满足服务器高热密度散热需求,而且全面系统地实现一站式服 务,打破国外技术壁垒,使大规模应用成为现实。目前,英维克全链条液冷解决方 案已实现单机柜 200kW 批量应用,完全液冷的冷板方案刷新最高热密度,并在超高 算力场景完成商用。此外,英维克还有 Coolinside 浸没式液冷解决方案,主要针对 高热密度、高功耗、安全兼容性等深入设计,以绝缘冷却液(可选:氟化液、矿物 油、硅油)作为载冷剂对服务器进行直接冷却。
3.7、宁畅:中国区GPU以及加速服务器市场前二,携手NVIDIA推出业内首个全系统定制液冷方案
2022 年年初,宁畅通过采用 NVIDIA 液冷 HGX A100 NVLink 平台,推出 X660 G45 LP 新系列液冷服务器,是业内首个全系统定制液冷方案。根据 IDC 发布的《2021 下半年度(H2)中国加速计算服务器市场分析报告》,宁畅位列中国区 GPU 以及加 速服务器市场第二名,核心团队在服务器领域有 15 年的相关经验,目前已取得了 30 余项液冷技术专利。宁畅的液冷服务器目前已经在北京、南京、哈尔滨、成都等城 市部署了数万台。宁畅全系统定制液冷方案,可使 PUE 值降低至 1.2 以下,在散热 方面,宁畅液冷服务器单芯片散热最高可达 500W,同时单机柜功率密度得到极大提 升,节省空间达 80%,噪音低于 50 分贝。
在国际权威 AI 性能测试 ML Perf 中,宁畅的服务器在 MASK R-CNN 和 U-Net3D 两项 AI 场景测试中,连续两年获得世界第一。除了 ML Perf 测试,宁畅的 R620 G40 服务器通过了 TPCx-AI 基准测试验证,这是国内首例。此前,R620 G40 服务器也在 SPEC(国际标准性能评测组织)的多个基准测试中获得 9 项世界第一。
(本文仅供参考,不代表我们的任何投资建议)
关于我们
我们是一家专注于分享国内外各类行业研究报告/专题热点行业报告/白皮书/蓝皮书/年度报告等各类优质研究报告分享平台。所有报告来源于国内外数百家机构,包含传统行业、金融娱乐、互联网+、新兴行业、医疗大健康等专题研究.....目前已累积收集近80000+份行业报告,涉及众多大板块,多个细分领域。
文琳编辑
免责声明:转载内容仅供读者参考,观点仅代表作者本人,不构成投资意见,也不代表本平台立场。若文章涉及版权问题,敬请原作者添加 wenlin-swl 微信联系删除。
为便于研究人员查找相关行业研究报告,特将2018年以来各期文章汇总。欢迎点击下面红色字体查阅!
文琳编辑
▼长按2秒识别二维码关注我们
《文琳资讯》
提供每日最新财经资讯,判断经济形势,做有价值的传播者。欢迎关注
今日导读:点击下面链接可查阅
今日导读:点击下面链接可查阅
公众号 :文琳阅读