随着 5G、人工智能、物联网、智慧城市的蓬勃发展以及大数据、云计算技术的深入发展和应用,作为数据计算、存储或连接交换的基础支撑与驱动技术进步的基石,数据中心是中国推进新一代信息技术产业发展的关键资源,数据中心的发展将持续强劲增长。
CPU 频率更高!计算速度更快!图像处理更强!
服务器能力的递增,随之而来的就是整体功耗的上涨;而机房布局面积限定与机架尺寸限定使得服务器的体积不能有太大的变化,要在有限的空间里装进无限可能,服务器只能在“功耗胖子”的路上越走越远······
功耗的增加必然会导致服务器的散热需求的增加,那么这个越来越胖的家伙怎么才能进行有效地散热呢?
相信大家都会有这样的生活经验,在炎炎夏日中我们如何才能舒适惬意?
最初的办法就是找个树荫,晒不到就凉快了!
如果还是热?那就扇扇子!
再不行?那就开空调!
依然不行?那就直接去冲个凉吧!
电子设备的散热设计也是相似的历程,最初的自然散热设备只要找个温度不高的使用环境就能很好的工作了,散热设计?ME 随便摆一下就 OK 了!
自然扇热设备
当慢慢自然散热搞不定的时候,风冷散热模式上线,系统里放几颗风扇、整体风道划分,散热问题就能解决,轻松加愉快!
再后来电子设备尤其是服务器的需求量增大,集群部署能更好的运营管理,数据中心机房要维持良好的设备运行环境,机房空调就必不可少,无论集中送风还是冷水列间,机房环境温度低了,服务器也就安生了!
传统数据中心制冷流程图
数据中心液冷机房
工质在散热设计中扮演搬运工的角色,搬运工人数可理解为密度,单人每次负重量理解为比热容 C,单位时间内搬运的次数就是换热系数 h;空气的比热容约为 1.0KJ/(KgK)、换热系数 20~100 W/(m2K)、密度约为 1.3g/L,而水的比热容约为 4.0KJ/(Kgk)、换热系数 200~1000 W/(m2K)、密度约为 1Kg/L;简单换算工作效率可以得到,风冷相当于一个人搬、一次搬运一个箱子、单位时间搬运 20 次,而水冷就相当于 770 人搬、每人一次搬运 4 个箱子,每人单位时间搬运 200 次,理论上是风冷的 3 万倍!实际运行中因各类限制,不会达到这么大的差距,但液冷的散热效率也是风冷的几千倍。
液冷的方式有多种,主要可以归纳为浸没式、喷淋式、冷板式三个大类;
浸没式:将整个服务器直接浸泡在工作介质中,根据工质工作状态可细分为非相变和相变两类;
喷淋式:工质通过服务器上盖板,直接滴漏或喷射在服务器的热源上,再通过服务器底壳收集运出,通常工质不发生相变;
冷板式:工质通常选用纯水,利用管路输送进服务器,再通过冷板与系统热源发生换热后导出服务器。
冷板式液冷服务器
闭式系统是自循环的小系统,最常见的应用是 PC 主机箱液冷,透明机箱加带色的工质,系统一运转,非常炫酷:
闭式循环系统系统 &原理
与闭式循环系统相比,开式系统对机房节可能更有帮助。它能够将热量转移至室外进行散热,减少机房的空调用量,降低整体 PUE。
系统通常划分成一次侧和二次侧两部分,一次侧为机房供水,包括室外的干冷器和冷水机组;二次侧为机房内布局部分,包括供液环路和服务器内部流道;两个部分通过 CDU(Coolant Distribution Unit 冷量分配单元)中的板式换热器发生间壁式换热,工质不做混合。
开式循环系统
快速接头可以实现带压插拔维护服务器,水路的自动断开和导通;
管路负责水路的运输工作,在服务器内进行流道设计;
液冷板的作用是提供冷水与热源之间换热的场所,内部有各类流道设计应对不同使用场景。
评论