数据中心产业链分析.docx
《数据中心产业链分析.docx》由会员分享,可在线阅读,更多相关《数据中心产业链分析.docx(25页珍藏版)》请在第一文库网上搜索。
1、数据中心产业链分析一、算力密度提升叠加能耗指标要求,驱动冷却市场创新升级1JAI等应用带动功率密度升高,风冷达到功率上限A1应用加速数据中心向高密化趋势演进。面对A1带来的数据量和计算量的爆发式增长,在数据中心资源尤其是一线城市资源日趋紧张的情况下,只有通过提高机房单位面积内的算力、存储以及传输能力,才能最大程度发挥数据中心的价值。高算力A1芯片导入将加速服务器高功率密度演进趋势。据全球数据中心调查报告显示,2023年全球数据中心平均单机架功率为84kW机架,相比于2017年的5.6kW机架有明显的提高。其中,14kw占25%,5-9kw占46%,1019kw占13%,中国目前与全球水平仍有差
2、距。据CDCC调研,国内全行业数据中心中8kW功率密度以上的机柜占比由21年的11%提升至22年的25%,高功率机柜占比提升明显。未来,随着人工智能模型训练推理等应用增加,多样化算力协同成为常态,单IT机柜主流功率密度将从6-8KW/柜提高到1215KW/柜,超算、智算中心功率密度将提升至30kW以上。大数据生成、业务模式变迁强调实时业务的重要性,导致高性能计算集群对于散热的要求提升。随着ChatGPT引爆新一轮人工智能应用的热情,海内外数据中心、云业务厂商纷纷开始推动A1基础设施建设,A1服务器出货量在全部服务器中的占比逐渐提高。根据TrendForce的数据,2023年搭载GPGPU的A1
3、服务器年出货量占全部服务器的比重接近1%,2023年在ChatGPT等人工智能应用加持下,A1服务器出货量有望同比增长8%,2023-2026年出货量CAGR有望达10.8%,AI服务器用GPU,主要以英伟达H1o0、A1O0、A800(主要出货中国)以及AMDM1250、MI250X系列为主,而英伟达与AMD的占比约8:2o图哀5:英伟达GPU功耗发展V(Miaznm20W201920232071XP?2073汕人工智能芯片多用传统型芯片,或用昂贵的图形处理器(GPU),或用现场可编程门阵列芯片配合中央处理器(FPGA+CPU)为主,用以在云端数据中心的深度学习训练和推理,通用/专用型A1芯
4、片(AS1C),也就是张量处理器或特定用途集成电路(AS1C),主要是针对具体应用场景,三类芯片短期内将共存并在不同应用场景形成互补。摩尔定律发展晶体管数量增多,产品功耗瓦数升高,对于散热的要求提升。随着IC制程、晶片效能、小型化升级,芯片瓦数大幅提升,表面高单位密度发热,对于导热、散热的要求提升。以主流厂商为例,InteHOnm以下制程需采均热片以解决发热问题,AMD7nm制程使用均热片,5nm则必须采用均热片进行散热。未来随着先进制程比如3nm推进,同时搭配3D封装,对于散热效率的要求更高。芯片级散热的方式是通过热传导原理,将芯片不断产出的热能持续地传导至散热元件,热能量传递通常是在非常接
5、近热源的散热器上进行的。以笔记本电脑为例,电子产品朝轻薄化、高性能化方向发展,晶片功能需要大幅增加,晶体管数量增多,对于散热要求提升。电子设备CPU硅半导体不耐热,在过高温度下无法作为电子电路发挥作用。中央处理器和集成电路向电机等发出操作命令,产生的大部分能量都转化为热量。小型化使得能量越集中,温度越高,发热密度更高。早期笔记本散热模组使用2根热管,现在增加为4至6根,高端的产品使用均热板。风机转速超过4000rmin后对热阻的效用是有限的。根据CNK1风冷系统中,风机转速从IoooI7min提高到4000rmin,芯片散热中对流占主导,流速增加对流换热系数显著增加,风冷方式能有效改善芯片散热
6、问题。而当风机转速超过4000rmin后,传热热阻下降比较平缓,转速增加只能改善与空气的导热传热,散热效果降低。芯片级液冷是未来发展趋势。服务器2U空间下,250W大约是风冷解热极限;4U以上风冷可以解到400-600W;A1芯片TDP普遍超过400W,大多使用4-8U。根据CNKI,芯片的平均热流密度将达到500W/cm2,局部热点热流密度将会超过10OOW/cm2,传统风冷散热已经达到极限。而芯片温度的控制对于稳定持续工作尤为重要,最高温度不能超过85,温度过高会导致芯片损坏,在7080。C内,单个电子元件的温度每升高10,系统可靠性降低50%,因此在功率提升的背景下,散热系统将向芯片级液
7、冷升级。风冷达到功率上限后性价比下降,液体吸热能力更强。根据20232023年度中国数据中心基础设施产品市场总报告,2023年我国单机柜功率在IokW以上的数据中心市场规模增速超过10%,其中30kW以上增速达31%。据预测,2025年全球数据中心平均功率提升至25kWoTGG认为每机柜15-25kW的功率密度作为“未使用背板换热器等其他制冷设备”的风冷解决方案的上限,当前自然风冷的数据中心单机柜密度一般只支持81OkW,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过15kW后性价比大幅下降。在同样单位体积下,液体吸收热量的能力更高。因此液冷技术能够更高效地散热,以及让芯片能够更高效地工
8、作。SW:液体吸热能力更软,水的热导率是空气的23倍以上I点空气*25t下的导热率(W3*K)0.0260.6089密度(KGe3)1.291比热客(kJ(kg*K)1.0044.2单位体积的热容量(kJ/(m3*)1.34200比我基德324公1.2液冷降低能耗压力,满足数据中心能耗要求随着相关政策的制定、建设布局政策出台,节能减排、高质量发展成为共识。作为散热厂家主要关注的是PUE和WUE指标。在绿色低碳目标下,东部地区对数据中心提出规划方案,多地明确提出加大节能技术改造力度,新建数据中心PUE限制在1.3以下,存量数据中心PUE不高于1.4。数据中心PUE下降趋势放缓,亟需新节能技术改造
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据中心 产业链 分析