在大模式浪潮的推动下,数据中心的“液冷时代”谁会获得机会?

日期:2023-06-25 09:03:50 / 人气:210

“随着云计算、区块链等技术的快速发展,数据资源的存储、计算和应用需求不断加速。尤其是去年底以来,ChatGPT引发的大规模模型浪潮,使得数据处理升温,进一步加速了AI算力等高功率应用场景的落地。
数据中心作为信息基础设施和通信设备的中心,承担着越来越多的计算,对计算效率的要求也越来越高。包括国内在内的世界各地的数据中心有望迎来建设高峰。
为了应对网络处理性能的挑战,数据中心服务器和通信设备不断提高处理能力和集成度,功率密度不断上升。这些变化不仅带来巨大的能耗问题,也对制冷设备和技术提出了更高的要求。
如何在政策严格限制PUE(用电效率)的情况下保持散热能力,成为摆在所有数据中心面前的难题。
在此背景下,液冷作为风冷的高级版本,以其超高的能效和超强的散热能力,引起了业界的广泛关注,逐渐成为散热的新方向。
那么,液冷为什么能成为大型数据中心的唯一散热方式呢?有哪些相关的技术分支?在液冷产业链中,哪些公司会有很好的腾飞机会?
01
为什么液体冷却是数据中心冷却的唯一选择?
在政策、技术、经济三重因素的推动下,液冷正在迅速取代风冷,几乎成为数据中心散热的唯一选择。
在政策方面,数据中心是一个不断增长的能源消耗者,相关政策不断出台,衡量其能耗的PUE指数也越来越严格。
根据中国通信研究院的数据,近年来中国数据中心规模稳步增长。按照2.5KW的标准机架计算,2022年中国数据中心的机架规模将达到670万个,近五年的CAGR将超过30%。其中,规模以上数据中心增长更快,2022年底达到540万个,占比81%。

资料来源:中国交通学院、中国银行证券。
在数据中心存量增长的同时,其功耗也在快速上升。工信部数据显示,2021年,我国数据中心用电量为2166亿千瓦时,占全社会用电量的2.6%,相当于上海全社会用电量的1.3,其中用于冷却的能耗占比超过40%,占非IT能耗的80%。

来源:中国数据中心行业现状及未来前景分析报告深度研究。
同时,在双碳背景下,政策导向也明确要求PUE进一步完善。国家层面,国家发改委等部门2021年11月发布的文件明确指出,新建大型、超大型数据中心PUE低于1.3,内蒙古、贵州、甘肃、宁夏节点数据中心PUE要控制在1.2以下。
可以说,在政策面的引导下,数据中心如果仅仅依靠风冷散热,从能耗角度来说是很难走得通的,新的散热方式的应用迫在眉睫。
技术面,随着芯片能耗的增加,风冷逐渐无力,液冷势在必行。
随着ChatGPT引爆人工智能应用新高潮,大规模模型训练和运算对计算能力的需求也大大增加,而计算能力需求的背后是对芯片拥有更高计算效率的渴望。
从2023年开始,英伟达发布了最新的H100计算卡,其老对手AMD也即将发布Instinct MI300显卡,为大模型和人工智能的发展提供了坚实的技术基础。
然而,计算能力的快速发展必然伴随着能耗的增加。根据ODCC《冷板液冷服务器可靠性白皮书》,2022年,英特尔第四代服务器处理器每CPU功耗已超过350瓦,英伟达单颗GPU芯片功耗已超过700瓦,AI集群计算功率密度普遍达到50kW/柜。

数据来源:紫光集团、浙商证券研究所。
随着散热需求的增加,风冷逐渐变弱。CNKI数据显示,在风冷系统中,当风扇转速为4000r/min时,对芯片的散热效果明显,但当风扇转速超过临界值时,只能改善与空气的热传导和热传递,散热效果降低,不足以完成目前主流高性能芯片的散热任务。
作为吸热能力更强的材料,液体在相同单位体积内吸收的热量是空气的近3000倍,可以有效保证芯片在更低的温度范围超频而不出现过热故障,具备“压住”计算卡的能力。
此外,液冷服务器还可以消除海拔、地域、温度的差异,保证运行效率和性能,具有大规模应用的优势。
经济性方面,液冷技术成熟,商业模式合理,可以有效节省能源支出。
据中银证券测算,以单间为例,200台服务器总功率为192KW,液冷方案比传统风冷方案可节电30%。虽然新型液冷的建设成本有所增加,整体节省的运行成本也随着使用年限的增加而逐渐增加,但总体来看,三年期和五年期液冷的工程成本比风冷分别降低了7%和12%。
在大规模模型训练和推理的驱动下,风冷很难适应最新的计算卡,这也促进了液冷市场总量和边际增长率的快速提升,这意味着对于更大的机房和数据中心,规模效应可以进一步体现。从经济角度来说,液冷显然比风冷更节能,性价比更高。

资料来源:IDC,中国银行证券
02
液体冷却的三条技术路线
液冷虽然是利用液体导热散热,但在技术方向上大致可以分为接触式和非接触式。
接触式液冷是指将冷却液与加热装置直接接触的一种液冷方式,包括浸没式液冷和喷淋式液冷。非接触式液体冷却是指冷却液不与发热器件直接接触,包括冷板等具体方案。

来源:IDC圈
冷板冷却,液体不会直接与加热装置接触,主要是通过液体冷板将加热装置的热量间接传递给封闭在循环管路中的冷却液,然后将冷却液中的热量排到大气中,再通过风冷或水冷再次循环冷却。

来源:中兴《液冷白皮书》中冷板液冷示意图。
喷淋式液冷是针对芯片级器件的精确喷淋。根据发热元件的要求,通过重力或系统压力将冷却液直接喷洒在发热元件或与其相连的导热元件上。

来源:中兴通讯《液冷白皮书》中喷雾液冷示意图。
浸没式液冷,另一方面,IT设备的发热元件全部浸没在冷却液中实现散热,根据工作介质是否有相变可分为单相液冷和相变液冷。吸热后的冷却液通过风冷或水冷进行循环冷却或冷凝。

来源:中兴《液冷白皮书》浸没式液冷示意图。
在三种液冷路线中,冷板液冷没有实现元器件与冷却液的直接接触,所以起步较早,目前成熟度最高。而浸没式液冷和喷淋式液冷由于冷却液与元器件直接接触,对含氟液体的纯度和流体沸腾过程的控制要求较高,所以起步较晚,尚未大规模商业化。
不过目前三种不同的液冷方案在通信行业都有一些应用案例。
冷板液冷已广泛应用于军用雷达、高密度数据中心、高性能计算机、动力电池和大功率LED散热领域,是解决大功率设备部署、提高能效、降低制冷运行成本、降低TCO的有效应用方案。
浸没式液冷实现了100%液冷,节能效果更好,在超级计算和高性能计算领域得到了广泛应用。
其中,单相液冷技术克服了以往IT设备运行环境的限制,几乎完全免除了湿度、灰尘、振动的影响,优化了服务器运行环境,延长了设备的使用寿命。相变浸没式液体冷却技术在单相液体冷却的基础上更进一步。即使服务器满负荷运行,服务器的整体温度仍然可以维持在一个合适的范围内,对于数据中心来说,这是一种高效且有前途的冷却方案。
而喷雾液冷作为两种方案的“中间体”,却面临着心有余而力不足的局面,这也导致目前公开展示的研究成果和应用实践相对较少。
03
液冷巨头艾默生旗下的浪潮信息和巨化股份。
随着AI模式引领的计算能力需求的快速升级,以及高功率密度的智能计算和超级计算中心的建设,在液冷设施加速推向市场的过程中,也出现了一批相关企业的投资机会,主要集中在部署液冷技术的第三方专业温控厂商、服务器厂商和冷却液厂商。
首先是以艾默生为代表的专业三方温控厂商,深耕行业多年,拥有非常广泛的客户资源,在现有产品的更新换代上有很大的规模优势。
艾默生的公司一般都有基本的散热技术平台,有横向技术复用和横向业务拓展的能力。汇川科技、麦戈美特等一批国内领先的电力电子科技公司,以电力电子技术为基础,专注于细分领域的应用,逐步实现场景拓展,市值从十亿走向百亿、千亿。
在其数据中心温控厂商中,前身为艾默生网络能源的Vitti拥有稳固的领先地位,市场份额约为30%,连续16年位居国内机房空调市场第一。
在全球范围内,维蒂科技也拥有广泛的客户基础。目前在网上运行空调产品超过100万套,在未来对现有数据中心产品的更新换代中具有极大的规模优势,也是国内机房空调市场的玩家。

来源:信通技术研究。
同时,出于安全稳定的考虑,企业客户在选择液冷数据中心的基础设施供应商时,通常需要进行严格的资质审核。另一方面,客户在与液冷数据中心的基础设施供应商建立生产支持关系后,倾向于维持与现有技术供应商的合作,不会轻易更换主要供应商,因此先入者具有先发优势,成为维蒂科技最大的依靠。
除了受益于产品更新换代的第三方温控厂商,服务器行业的进入门槛很高,这也给了提前布局液冷的服务器厂商大显身手的机会。
液冷数据中心基础设施产品的研发制造涉及冷却技术、制冷系统设计与仿真技术、温湿度解耦控制算法等多个技术领域。,这就需要企业有成熟深入的技术积累,而一些长期跟踪散热技术的服务器厂商拥有深厚的技术实力,成为最直接的受益者。
其中,浪潮信息作为“All In Liquid Cooling”的服务器厂商,在液冷技术领域已拥有100多项核心专利,参与冷板液冷、浸没式液冷相关的10多项设计技术标准的制定和发布,并联合主导项目、编写冷板液冷核心技术标准4项。
产品方面,去年浪潮信息发布了全栈液冷产品,通用服务器、高密度服务器、整机柜服务器、AI服务器等四大系列均支持冷板液冷。同时,浪潮信息亚洲最大液冷数据中心R&D及生产基地正式投产,年产能10万台,实现行业内冷板液冷整体机柜首次量产交付,进一步升级液冷智能计算中心解决方案,实现数据中心PUE。

作者:盛煌娱乐




现在致电 5243865 OR 查看更多联系方式 →

COPYRIGHT 盛煌娱乐 版权所有