浅析高密度服务器散热的发展趋势

作者:兰洋科技    时间:2021年11月25日    标签: 浸没液冷 液冷散热

近年,伴随着人工智能、大数据、物联网技术的发展,高功率密度的超算设备成为服务器厂家纷纷布局的产品。目前高(功率)密度服务器中的单颗CPU TDP(Thermal Design Power,散热设计功耗...

近年,伴随着人工智能、大数据、物联网技术的发展,高功率密度的超算设备成为服务器厂家纷纷布局的产品。目前高(功率)密度服务器中的单颗CPU TDP(Thermal Design Power,散热设计功耗)200W起步,例如intel Xeon处理器;GPU、NPU、TPU等专业处理器的功耗更大,例如英伟达GPU TeslaV100的TDP达到300W。另一方面,由于高密度服务器内集成的内存数量、传输速率较之前都有数量级的提升,伴随而来的内存散热问题也越来越得到重视。此外,SSD、I/O设备、VRD等设备功耗的增加也迫使服务器厂家不断优化散热设计。



高密度服务器
高密度服务器


图1 某品牌高密度服务器


传统服务器的散热方式是强迫风冷,该方式的散热能力取决于换热系数、换热面积及换热温差。通常的做法有:

1. 给高功耗的处理器加装散热翅片,以增大风冷散热面积;

2. 配置变频调速的大风量风机,优化服务器内的流场布局,一方面增大了换热系数,另外也通过大风量实现小温差传热,把处理器的温度控制在合理范围内。


强迫风冷散热方式属于气体强制对流换热方式范畴,因此该种散热能力的理论上限为20-100W/( m2·········K) 。此外,由于高密度服务器的结构紧凑,可供风道设计的尺寸减小,空气侧的流场阻力随之增大,风机所能提供的风量由此减小。因此无论从理论上还是工程上,传统强迫风冷的方式已逐渐无法满足高密度服务器的散热要求。


通过CPU强迫风冷传热热阻与CPU散热风扇转速的关系曲线,可以使我们对风冷散热方式的能力上限有一个更直观的认识(见图2)。


服务器CPU散热热阻与风机转速关系

 图2  服务器CPU散热热阻与风机转速关系


在风机转速从1000r/min提高到4000r/min的过程中,CPU散热中对流占主导,空气流速增加会使强制对流换热系数显著增加,即风机转速的增加可以显著的改善CPU的散热性能;在风机转速超过4000r/min后,传热热阻下降比较平缓,因为此过程中对流换热能力已经逼近极限,风机转速的增加只能改善与空气的导热传热,即此过程对CPU的散热性能影响减弱了。


传统风冷散热方案已不能满足高密度服务器的散热要求,液冷散热方式成为必然选择。由于液态载冷剂的比热容、换热系数都远高于空气,因此更满足高密度服务器的散热要求。


通过几种常见换热方式的换热能力对比(图3),液相单相强制对流换热能力比空气强制对流高2个数量级,可满足高能耗处理器的散热要求。以Xeon Platinum 8180芯片为例,芯片封装后的尺寸是75mm×55mm,TDP是205W,如果采用空气强制对流换热方式,取换热温差40℃、对应最大热流密度3W/cm2,则最大换热能力为124W,不能满足散热要求。如采用液相单相强制对流换热方式,取换热温差10℃、对应最大热流密度为30W/cm2,则最大换热能力是1240W,远大于处理器的散热要求,此外还可以实现更小换热温差的传热。

几种换热形式热流密度与换热温差的关系

图3 几种换热形式热流密度与换热温差的关系


处理器的电功耗主要分三部分:空载功耗、静态功耗、动态功耗,其中静态功耗与处理器的温度息息相关。芯片温度升高,处理器内晶体管的泄漏电流增大,进而增大了处理器的静态功耗。Zapater用指数形式拟合了静态功耗Ps与处理器温度的关系:

公式

c2、c3——经验系数

Ps——处理器静态功耗

Td——处理器壁面温度


液冷方案中实现更小的温差传热,使处理器壁面处于更低的温度,进而减少了处理器的静态功耗,即减小了散热设备的负荷,同时还提高了IT设备的电能利用效率。


综上所述,高密度服务器的散热方式必然从传统风冷向液冷转变。


[版权声明]

原文标题:浅析高密度服务器散热的发展趋势

链接:http://www.blueocean-china.net/faq3/83.html

兰洋科技(BLUEOCEAN),领先的浸没式液冷整体解决方案提供商。

全国统一服务热线
400-994-4899
Copyright ©2021 兰洋科技有限公司 版权所有
ICP备案:浙ICP备2021021247号-1