AI的内存瓶颈,高壁垒高增速.docx

  1. 1、本文档共101页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

证券研究报告行业深度

HBM:AI的内存瓶颈,高壁垒高增速

分析师:刘双锋

liushuangfeng@

SAC编号:S1440520070002

发布日期:2024年3月9日

分析师:章合坤

zhanghekun@

SAC编号:S1440522050001

分析师:孙芳芳

sunfangfang@

SAC编号:S1440520060001

研究助理:何昱灵heyuling@

中信建投证券

CHINASECURITIES

本报告由中信建投证券股份有限公司在中华人民共和国(仅为本报告目的,不包括香港、澳门、台湾)提供。在遵守适用的法律法规情况下,本报告亦可能由中信建投(国际)证券有限公司在香港提供。同时请务必阅读正文之后的免责条款和声明。

摘要

?HBM是限制当前算力卡性能的关键因素,海力士、三星、美光正加大研发投入和资本开支,大力扩产并快速迭代HBM,预计2024年HBM3e24GB/36GB版本将量产/发布,内存性能进一步提高。HBM供需将持续紧俏,市场规模高速增长。通过分析生产工艺(TSV、键合等)和技术演进方向(先进制程、叠层),我们认为封装测试、前道和后道先进封装的设备和材料将是HBM主要受益方向。

?HBM是当前算力的内存瓶颈。存储性能是当下制约高性能计算的关键因素,从存储器到处理器,数据搬运会面临带宽和功耗的问题。为解决传统DRAM带宽较低的问题,本质上需要对单I/O数据速率和位宽进行提升。HBM由于采用了TSV、微凸块等技术,DRAM裸片、计算核心间实现了较短的信号传输路径、较高的I/O数据速率、高位宽和较低的I/O电压,因此具备高带宽、高存储密度、低功耗等优势。即便如此,当前HBM的性能仍然跟不上算力卡的需求。

?三大原厂持续加大研发投入,HBM性能倍数级提升。随着技术的迭代,HBM的层数、容量、带宽指标不断升级,目前最先进的HBM3e版本,理论上可实现16层堆叠、64GB容量和1.2TB/s的带宽,分别为初代HBM的2倍、9.6倍和4倍。从Trendforce公布的HBMRoadmap来看,2024年上半年,海力士、三星、

美光均会推出24GB容量的HBM3e,均为8层堆叠。2024年下半年,三家厂商将推出36GB版本的HBM3e,或为12层堆叠。此外,HBM4有望于2026年推出。

?HBM制造集成前道工艺与先进封装,TSV、EMC、键合工艺是关键。HBM制造的关键在于TSVDRAM,以及每层TSVDRAM之间的连接方式。目前主流的HBM制造工艺是TSV+Microbumping+TCB,例如三星的TC-NCF工艺,而SK海力士则采用改进的MR-MUF工艺,在键合应力、散热性能、堆叠层数方面更有优势。目前的TCB工艺可支撑最多16层的HBM生产,随着HBM堆叠层数增加,以及HBM对速率、散热等性能要求的提升,HBM4开始可能引入混合键合工艺,对应的,TSV、GMC/LMC的要求也将提高。

中信建投证券

CHINASECURTIES2

摘要

?AI刺激服务器存储容量扩充,HBM需求强劲。随着云计算厂商将更多资本开支投入AI基础设施,AI服务器ODM对2024年展望乐观,预计2024年AI服务器出货量继续大幅增长。相较于一般服务器而言,AI服务器多增加GPGPU的使用,以NVIDIAA100/H10080GB配置8张计算,HBM用量约为640GB,超越常规服务器的内存条容量,H200、B100等算力卡将搭载更高容量、更高速率HBM。我们测算,随着算力卡单卡HBM容量提升、算力卡出货量提升、技术迭代带来单GBHBM单价提升,2

文档评论(0)

186****0576 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:5013000222000100

1亿VIP精品文档

相关文档