2023存储专题报告:AI发展驱动HBM高带宽存储器放量.docx
《2023存储专题报告:AI发展驱动HBM高带宽存储器放量.docx》由会员分享,可在线阅读,更多相关《2023存储专题报告:AI发展驱动HBM高带宽存储器放量.docx(16页珍藏版)》请在第一文库网上搜索。
1、存储专题超配A1发展驱动HBM高带宽存储器放量内容目录HBM:高带宽DRAM,GPU理想存储解决方案4A1大模型催动DRAM需求43DDRAM解决“内存墙”问题6关键技术助力HBM发展8相关企业14风险提示16图表目录图1:HBM主要以TSV技术垂直堆叠芯片,达到缩减体积、降低能耗的目的4图2:A1模型计算量增长迅猛4图3:HBM提供更快的数据处理速度4图4:大模型语言计算对应内存需求5图5:静态内存参数、优化器状态较为固定5图6:动态内存通常是静态内存的数倍5图7:A1服务器提升存储器需求6图8:模型越大需要设备内存越大6图9:存储带宽落后于算力成长速度形成“内存墙”6图10:3DDRAM几
2、种实现方式7图11:HBM每个DRAM单元间引线最短7图12:HBM3带宽进一步提升7图13:ChiPIet搭载HBM作为存储单元解决方案8图14:硅通孔技术流程9图15:TSV当前深宽比约在10:19图16:TSV目前开孔约在IOUm9图17:英伟达AIOoGPUCOWOS封装10图18:基于TSV技术实现堆叠HBM10图19:IMECTSV工艺示意图10图20:A1D形成扩散阻挡层10图21:先进DRAM需要更高介电常数材料11图22:A1D形成High-KMeta1Gate11图23:2.5D+3D先进封装集成11图24:AMDRadeonVegaGPU&HBM2横截面12图25:台积电
3、“3DFabricn平台使用8个HBM2e堆栈12图26:NVIDIAGH200GraceHoPPer芯片中使用96GBHBM3堆栈12图27:AMD/UMC2.5D+3D集成示意图13图28:NVIDIA/TSMC2.5D+3D集成示意图13图29:2019-2025全球封装基板行业产值及增速13图30:全球IC载板市场格局13HBM:高带宽DRAM,GPU理想存储解决方案HBM(高带宽存储器,HighBandwidthMemory)是一款新型的CPU/GPU内存芯片,是由AMD和SKHyniX发起的基于3D堆栈工艺的高性能DRAM,适用于高存储器带宽需求的应用场合。HBM以位元计算,通过增
4、加带宽,扩展内存容量,让更大的模型、更多的参数留在离核心计算更近的地方,从而减少内存和存储解决方案带来的延迟,目的实现大容量,高位宽的DDR组合阵列,目前HBM占整个DRAM市场比重约153,为新型高性能存储产品。图1:HBM主要以TSV技术垂直堆叠芯片,达到缩减体积降低能耗的目的BASEDie资料来源:MiCrOn,国信证券经济研究所整理A1大模型催动DRAM需求A1大模型处理数据的吞吐量呈指数级增长,对内存的提出更高的带宽需求,HBM迎来发展机遇。A1大模型的数据计算量激增,需要应用并行处理数据的GPU作为核心处理器,GPU搭载的内存芯片带宽关联GPU数据处理能力,高带宽的内存芯片可以为G
5、PU提供更快的并行数据处理速度,对GPU的性能起到了决定性作用。图3:HBM提供更快的数据处理速度图2:A1模型计算量增长迅猛OOOOOOifw*工-h*0.00000001w_jr-0000000000111,*r,Chip1etsIntegrationReducesSystemCostZfunctionH8M2HBM2EHBM3资料来源:TSMC,国信证券经济研究所整理JUi2.IMO(c27.W8Sap4.丽MayM20资料来源:OUrWor1dinData,国信证券经济研究所整理动态内存能力对大模型训练至关重要。内存方面,大模型训练的内存可以大致理解为参数、优化器状态、激活、梯度四部分
6、的和。它们大致分为两类:静态内存和动态内存。参数、优化器状态较为固定,属于静态内存,激活和梯度等中间变量属于动态内存,是最主要的内存占用原因,动态内存通常是静态内存的数倍。图4:大模型语言计算对应内存需求资料来源:EIeUtheraI,国信证券经济研究所整理训练1750亿参数的GPT3所需内存,大约需要3.2TB以上。静态内存方面,大多数Transformer都是以混合精度训练的,如FP16+FP32,以减少训练模型内存,则一个参数占2个字节,参数和优化器状态合计占用内存1635Go而动态内存,根据不同的批量大小、并行技术等结果相差较大,通常是静态内存的数倍。更简洁的估算方法,可以假设典型的1
7、1M训练中,优化器状态、梯度和参数所需的内存为20N字节,其中N是模型参数数量,则1750亿参数的GPT3大概需要3.2TB内存。推理所需内存则较小,假设以FP16存储,175B参数的GPT3推理大约需要内存327G,则对应4张80GA100,如果以FP32运算,则需要10张。图7:A1服务器提升存储器需求资料来源:闪存市场,国信证券经济研究所整理图8:模型越大需要设备内存越大资料来源:NVIDIA,国信证券经济研究所整理3DDRAM解决“内存墙”问题“内存墙”是处理器算力超过存储芯片存取能力,内存墙的存在导致综合算力被存储器制约。据行业预计,处理器的峰值算力每两年增长3.1倍,而动态存储器(
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2023 存储 专题报告 AI 发展 驱动 HBM 带宽 存储器 放量