事项:
2023 年6 月5 日,在第31 届中国国际信息通信展览会上,中国移动、中国电信、中国联通三家基础电信运营企业,邀请液冷产业链的相关代表企业,共同面向业界发布《电信运营商液冷技术白皮书》。白皮书提出三年发展愿景,三大运营商将于2023 年开展技术验证;2024 年开展规模测试,新建数据中心项目10%规模试点应用液冷技术;2025 年开展规模应用,50%以上数据中心项目应用液冷技术。
国信通信观点:1)数据中心能效监管趋严,最新要求国家算力东、西部枢纽节点数据中心PUE 分别控制在1.25、1.2 以下,散热效率较传统风冷大幅提高,是算力需求急剧提升下IDC 绿色化、节能化的重要温控技术手段之一;在AI 带动机柜功率持续提升趋势下,液冷将成为数据中心“刚需”2)三大运营商发布液冷技术白皮书,指引在2025 年液冷渗透率需要达到50%,按照指引测算,2025 年液冷市场空间将达到63 亿元,远超风冷市场空间15.6 亿元,为来算力需求进一步提升液冷市场空间潜力有望随之提升;3)除运营商外,互联网大厂也早有液冷布局,白皮书发布进一步明确IDC 温控技术路径指引,有望拉动互联网大厂积极跟进,加速互联网企业液冷数据中心的规划化落地进程;投资建议:运营商倾向于采购头部供应商,有望带来行业集中度提升,推荐液冷头部企业【英维克】、【申菱环境】等。
评论:
数据中心能效监管趋严,液冷较传统风冷更能有效降低PUE在“双碳”宏观形势下,政府部门近年陆续出台多项文件,对数据中心PUE 监管要求不断提高、达标时间不断提前,2021 年11 月发改委印发《贯彻落实碳达峰碳中和目标要求推动数据中心和5G 等新型基础设施绿色高质量发展实施方案》,明确到2025 年,新建大型、超大型数据中心PUE 降到1.3 以下,国家枢纽节点降至1.25 以下。2022 年1 月发改委明确要求国家算力东、西部枢纽节点数据中心PUE 分别控制在1.25、1.2 以下,液冷技术通过冷却液体替代传统空气散热,液体与服务器热交换效率更高,有利于数据中心整体PUE 降低,是未来数据中心走绿色化、节能化道路的重要应用技术手段之一。
2025 年运营商新建项目液冷渗透率大幅提高,液冷市场空间有望达到63 亿元根据白皮书指引,三大运营商新建数据中心项目的液冷渗透率需在2024 年达到10%,2025 年达到50%,经我们测算,在该指引下2025 年液冷市场空间将达到63 亿元,远超风冷市场空间15.6 亿元:
白皮书指引:三大运营商新建数据中心液冷渗透率2024 年达到10%、2025 年达到50%;
关键假设1:假设三大运营商IDC 机柜23-25 年增速分别为5%、8%、10%;
关键假设2:假设液冷单机柜功率为8-10KW,单机柜造价为0.8-1 万元/KW;
关键假设3:假设风冷单机柜平均功率为4KW,单机柜造价为0.5 万元/KW。
运营商已经开始多地试点,并有望带动互联网大厂跟进
国家、地方及行业积极推出相关政策引导液冷技术落地,2021 年7 月工信部《新型数据中心发展三年行动计划(2021-2023 年)》要求“加强核心技术研发。鼓励企业加大技术研发投入,开展新型数据中心预制化、液冷等设施层,专用服务器、存储阵列等IT 层,总线级超融合网络等网络层的技术研发”。2021 年11 月发改委《贯彻落实碳达峰碳中和目标要求推动数据中心和5G 等新型基础设施绿色高质量发展实施方案》明确“支持采用液冷等方式”。
三大运营商不断进行实践,助力液冷技术落地。中国移动积极开展液冷系统试点应用,2019-2021 年分别在河北、山东、江苏、浙江组织液冷试点,并在2023 年于呼和浩特智算中心项目中启动液冷规模试点。
中国电信在5GBBU 站点及数据中心机房积极进行液冷试点应用,2020 年就启用首个试验点(5GBBU 站点),上线2 个液冷机柜,满负载率条件下PUE 值约1.15;同时在高密度机房开展数据中心液冷试点,2018 年在广州即开展冷板式液冷试点,PUE 值约1.2,2023 年计划在京津冀、安徽、广州分别开展多个液冷机柜项目,包含冷板式机柜和浸没式机柜。中国联通2021 年在德清云数据基地投产的冷板式液冷已稳定运行近两年,2021 年在在郑州开展5GBBU 设备液冷喷淋测试,配置一套10kW 液冷机柜,PUE 值约为1.16。三大运营商积极探索实践液冷技术,加速推进液冷技术落地。
互联网巨头早已积极布局液冷技术,白皮书发布有望拉动互联网企业液冷规模化布局加速落地,进一步提高液冷市场空间。阿里巴巴从2016 年就开始大规模部署液冷技术试点,2018 年建成首个互联网液冷数据中心,2020 年投产首个5A 级绿色液冷数据中心(杭州云计算数据中心);百度在2021 年发布《天蝎4.0液冷整机柜开放标准》,积极布局冷板液冷方案;京东在2021 年即采用整机柜液冷技术,并规模投入“双11”机房中。伴随液冷技术的进一步成熟、国家PUE 指标趋严、三大运营商白皮书发布进一步明确IDC 温控技术路径指引,有望带动互联网大厂积极跟进,加速液冷规划化落地进程。
液冷技术亦是AI 大趋势下数据中心的“刚需”
AI 算力服务器功耗较传统服务器大幅提升,NVIDIA DGXA100 640GB 最高功耗可达6.5KW。AI 服务器通常采用CPU+GPU/FPGA/TPU 等异构架构,使用大量高功率的CPU、GPU 芯片,整机功率随之大幅走高,如用于训练ChatGPT 的英伟达AI 服务器(NVIDIA DGXA100 640GB)包含8 颗GPU(NVIDIA A100 80GB Tensor CoreGPU)和1 颗CPU 处理器(AMD Rome 7742),系统功耗最大可达到6.5KW。
大模型的陆续问世拉动AI 算力需求持续提升,对数据中心的功率需求随之提高。面对快速且持续增长的算力需求,IDC 建设速度及土地面积成为制约因素之一,提高单机柜功率成为发展趋势,AI 高功率数据中心机柜占比进一步提高。标准机柜一般尺寸为19 英寸*42U 机柜,即宽48.2 厘米*高186.7 厘米,以英伟达A100 服务器为例,高264.0 毫米、宽482.3 毫米、长897.1 毫米,单从机柜尺寸角度出发,标准机柜最多可以放7 个A100 服务器,单机柜最大功率可达到45.5KW。
传统风冷技术冷却机柜功率密度较低,无法满足AI 服务器散热需求。目前IDC 主流的散热冷却技术主要可以分为风冷和液冷两大类别,根据《冷板式液冷服务器可靠性白皮书》数据显示,自然风冷的数据中心单柜密度一般只支持8-10kW,通常液冷数据中心单机柜可支持30kW 以上的散热能力,并能较好演进到100kW 以上。散热冷却系统所采用冷却技术不同,对应的移热速率差距也不同,一旦选择不合适的冷却系统,单机柜功耗与冷却系统能力不符合,会导致机柜温度不断升高,进而导致算力下降,对硬件设备造成不可逆损伤。
液冷技术是有效应对高单机柜功率密度的冷却技术。AI 训练及推理应用、超算等高算力业务需求持续推升,由此带来的芯片性能需求、服务器功率需求不断提高,散热问题成为发展痛点之一,以英伟达DGXA100 640GB服务器为例,此前测算的单机柜最大功率为45.5KW,传统风冷无法做到及时散热,液冷技术利用液体较高的比热容和换热能力可以支撑更高功率散热,有望成为新型制冷“刚需”。
投资建议:
运营商倾向于采购头部供应商,有望带来行业集中度提升,推荐液冷头部企业【英维克】【申菱环境】等。
风险提示:
AI 大模型发展不及预期,液冷技术进展不及预期,液冷市场竞争加剧引发价格战