数学模型分析和预测液冷服务器何时会成为主

全文约字

建议阅读时长:~15min

一直以来,数据中心制冷技术话题一直保持较高热度。炙手可热的话题背后,一方面,是从基础设施维度,制冷系统对数据中心PUE权重最大;另一方面,是半导体芯片晶体管密度越来越高,在各种算力应用场景下(例如,大数据分析,人工智能,高性能运算HPC……),服务器和机架功率密度在一直攀升。

对于服务器功耗和机架的功率密度,业界一直有讨论,但是众说纷纭,专家各执一词,大概有以下几个主要话题:

使用风冷服务器解决方案,IDC设计需要支持多高的机架功率密度?

服务器性能也在提高,但是一个系列芯片有那么多款,有高性能版,有低功耗节能版,也有主流版本,公司的业务不一样,选择哪款芯片对服务器的功耗差异不同。那什么时候的服务器要用液冷,什么时候的服务器要用风冷呢?

服务器芯片工艺也在提高,算力性能/Watt提高的同时,会不会随着工艺(10nm/7nm/5nm/4nm....)成熟以及新架构(如ARM等),导致单颗芯片功耗不太上涨,反而会下降呢?

除了芯片配置,服务器也有多种类型,例如1U,2U,4U,还有半U模块式,刀片服务器(市场占比低)等,那么如何选取服务器类型,也影响制冷方式?

除了CPU有多种选择,近几年因为计算场景细分,还出现TPU,GPU(例如英伟达的AI芯片)运算,服务器设计变成一个更加复杂的系统架构工程,芯片如何选型,组合和应用,如何影响服务器的散热方式变革?

说了那么多复杂的细分场景,大概读者也能理解,业界众说纷纭不是没有道理。网络上有很多质量很高的白皮书,介绍各种液冷的解决方式,但鲜有文章讨论,究竟液冷服务器何时会到来?国内使用液冷服务器比例固然不高,但因为代表一种技术变革,液冷服务器的话题一直获得很大行业


转载请注明:http://www.aierlanlan.com/rzdk/423.html