2024年AI算力行业全产业创新不断,国产化向阳而生.pptx

2024年AI算力行业全产业创新不断,国产化向阳而生.pptx

  1. 1、本文档共49页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
全产业创新不断,国产化向阳而生2024年AI算力行业投资策略证券分析师:杨海晏 A02305180703 、黄忠煌 A0230519110001 、李国盛 A0230521080003 、 王珂 A0230521120002、林起贤A0230519060002、刘洋 A0230513050006研究支持:袁航 A0230521100002 2023.11.14 3网络架构:两极格局,均有机会,本土RoCE等网络及400G以上光通信演进,是进一步重要趋势!Nvidia(Mellanox)代表的InfiniBand网络阵营,是AI网络架构的新力量,优势是性能与生态传统硬件与科技大厂为代表,则形成基于以太网底座的高性能网络阵营,优势是通用性与成本通信芯片与器件:产业链国产替代进程已从光模块逐步开始向上延伸进入到光芯片、光器件 等价值量更高环节中美对比:电信运营商的算网融合战略明确,体现资源复用率、梯次布局、算力整体优势, 将是“中国式”算力大市场算力电子:量价齐升,群星璀璨云端AI:存储、电源、PCB量价齐升HBM突破算力内存墙,有望成为AI服务器标配电源为算力能耗之基石,AI服务器单机价值量可达2.8万PCB:GPU模块加入,主板面积提升,PCIe AI服务器合计PCB价值量约1.4万元/台,NVLink AI服务器 PCB价值量约1.5万元/台端侧AI:云端下沉,带动消费电子终端变革高通、Intel发布集成NPU(AI计算)的SoC“安迪-比尔”定律有望在生成式AI中继续演绎,国内外手机厂陆续跟进风险提示:外部环境影响供应链稳定;AI应用推进不及预期。结论:AI算力创新加速期,AGI催化产业链量价齐升 4AI算力全产业链投资机会Transformer架构千亿级以上参数ZB级训练数据量训练算力275倍/2年提升应用落地期推理算力爆发芯片、服务器、整机网络全面创新,价值量提升价值云 端 A I英 伟 达 线国 产 线AI芯片:国产替代,追风逐日 算力电子:量价齐升,群星璀璨 算力通信:价值放大,两极发力高算力大存储高带宽Tensor Core+ 稀疏化华为NVLinkHBM3Intel+高通:SoC集成NPU3DCubeHBM2e端侧AIAIPCAI手机HCCL通信存储电源PCB散热DDR—HBM功率要求提升面积变大风冷—液冷大模型训练难点是解决并行问题英 伟 达 线国 产 线Infini BandRoCE光通信产业链:光模块、 光芯片、光器件国产替代网络芯片:亦有机会运营商:算网融合 主要内容AI算力:科技基石,星辰大海AI芯片:国产替代,追风逐日算力通信:价值放大,两极发力算力电子:量价齐升,群星璀璨重点公司与估值5 61.1 大模型时代,训练需求飙升基于Transformer架构的大模型时代,训练算力需求陡峭攀升训练算力=参数*token数*6次32位浮点数精度,GPT-3.5训练一次算力3637PFlops/s-day根据英伟达,Transformer大模型训练算力需求将以275倍/2年的速度增长GPU计算性能10年内将再翻1000倍摩尔定律即将结束,CPU计算性能进入滞缓期,GPU内含更多计算单元,计算性能未来10年 可翻1000倍 资料来源:英伟达FY2024 Q1法说会PPT,申万宏源研究大模型训练算力需求2年翻275倍GPU计算性能未来10年再翻1000倍 71.2 AI算力:大模型“卖铲人”,技术创新的基石服务器HBMDRAMGPU/ASICGPUGPUGPUGPUGPUGPUGPUGPUAI ASIC/GPU逻辑:AI大模型训练+推理均需AI服务器提供算力,需求量提升逻辑:1)AI大模 型训练+推理,AI 芯片需求量提升; 2)英伟达供给受 限,国产ASIC弥 补英伟达无法覆盖 的需求光模块OSFP逻辑:服务器配 套产品,实现AI 服务器间高速互 联HBM DRAM服务器液冷逻辑:AI芯片功耗显著提升,传统风冷无 法满足散热要求无论谁做大模型、采用何种模型技术路线,算力都是必须的,需求确定性强、持续性高(前期训练+应用铺开后推理),业绩率先体现,并且有明确的量价关系。 资料来源:申万宏源研究 81.3 AI服务器 VS 通用服务器资料来源:IDC,申万宏源研究32%11%20%13%通用服务器系统部件通用服务器Nvidia 8卡A100服务器型号数量单价 价值 价值占(元) (元) 比型号数量单价 价值 价值占(元) (元) 比计算资源2 10000 20000 31.5% AMD Rome/Intel Xeon210000 20000 2.2%--- 0.0%NvidiaA1008840009%内存及 存储2 3500 7000 11.0% SSD203500 7000

您可能关注的文档

文档评论(0)

535600147 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档