可编辑文档:AIGC行业市场前景及投资研究报告:液冷,AI时代,“光模块”.pptx

可编辑文档:AIGC行业市场前景及投资研究报告:液冷,AI时代,“光模块”.pptx

  1. 1、本文档共39页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

液冷,AI时代的下一个“光模块”AIGC行业深度报告(16)2024年7月24日

核心逻辑:?为什么说液冷是AI的下一个光模块:AI高速互联时代,高算力与高效传输架构相匹配,从40G取代10G,100G取代40G,400G取代100G,800G取代400G,1.6T有望取代800G,升级之路永不停息;液冷已经从“选配”到“必配”,高温环境下,芯片内部的电子元件会因为长时间工作而受到损耗,从而缩短芯片的使用寿命,风冷的极限芯片散热功率是800W,英伟达部分产品已经突破风冷能力上线,例如GH200以及必威体育精装版款B200、GB200。此外单机柜密度来说,2025年AI集群算力单机柜密度将有望到20-50kW,也远远超出了风冷的上限。政策为液冷市场扎入“强心剂”,国家政策对PUE值要求趋紧,呈逐年下降趋势。?深度拆解液冷的核心价值链:液冷分为冷板式液冷,浸没式液冷、喷淋式液冷,我们判断冷板式液冷有望率先放量。根据我们的测算,2024、2025年我国的液冷市场规模分别为208.17、1700.23亿元,同比增速分别为756.6%、716.8%。液冷散热系统通常由至少两个相互隔离的循环回路组成,一次侧主要的散热设备主要有三种:干冷器、冷却塔和制冷机组,冷板式液冷的二次侧组件包括:冷板组件、快速接头QDC、机柜工艺冷媒供回歧管RCM、环路工艺冷媒供回歧管LCM、冷量分配单元CDU及工艺冷媒,相关公司有望在液冷趋势下快速放量。?深度拆解液冷的受益公司类型:维谛技术(Vertiv)深度绑定英伟达从而迈向成长,公司2023年3月31日股价为11.75美元,公司2024年3月31日公司股价为81.67美元,我们判断其背后的原因为由于AIGC爆发,公司相关液冷数据中心产品业绩迎来高增。我们将液冷产业链的受益公司简单拆解为三类,分别是服务器内侧端、液冷建设端、液冷基础设施提供商;我们将服务器内侧端定义为服务器内部的组件,可直接受益高功率AI芯片放量。液冷建设端,由于建设主体的不同,我们将液冷建设端分为液冷全链条式解决方案厂商、服务器厂商以及IDC厂商,每种类型厂商独具优势。液冷基础设施提供商即可提供相关液冷单独产品,随着液冷的升级换代,其相关产品有望量价齐升。?投资建议:在AI芯片架构升级的大趋势下,高算力与高功耗相匹配,英伟达相关产品功耗已经超过风冷极限,液冷已经从“选配”到“必配”,受益标的为:服务器内侧端:服务器内侧端:飞荣达等;液冷建设端,全链条式解决:英维克、申菱环境、高澜股份等;液冷建设端,服务器厂商:工业富联、浪潮信息、曙光数创等;液冷建设端,IDC建设:润泽科技、奥飞数据、数据港等;液冷基础设施提供商:强瑞技术、淳中科技、朗威股份、川环科技、海鸥股份等;?风险提示:核心技术水平升级不及预期的风险、AI伦理风险、政策推进不及预期的风险、中美贸易摩擦升级的风险。2

目录01液冷已经从“选配”到“必配”02深度拆解液冷的核心价值链03梳理液冷产业链的受益公司04投资建议05风险提示3

01液冷已经从“选配”到“必配”4

1.1算力在大模型时代迎来爆发,光模块需求高增?大模型参数呈现指数规模,引爆海量算力需求:根据财联社和OpenAI数据,ChatGPT浪潮下算力缺口巨大,根据OpenAI数据,模型计算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。运算规模的增长,带动了对AI训练芯片单点算力提升的需求,并对数据传输速度提出了更高的要求。根据智东西数据,过去五年,大模型发展呈现指数级别,部分大模型已达万亿级别,因此对算力需求也随之攀升。?大模型参数量的增长,数据中心互联互通成为核心关键:在万亿级大数据的背景下,单卡/单服务器算力已经无法支撑庞大模型的训练,而芯片与芯片之间的互联成为重中之重,集群的效应显得尤为关键,因此在AI的大背景下,由于叶脊网络架构中的服务器交换流量较大,因此服务器与交换机互联的统一互联互通的数据中心均使用光模块,而光模块传输速度越高,证明其互联互通的效率也就越高,因此在整体算力芯片架构升级的大背景下,传输速率较高的光模块成为当下的首选。近年大模型的参数规模增长趋势光模块细分市场预测5

1.1算力在大模型时代迎来爆发,光模块需求高增?AI高速互联时代,高算力与高效传输架构相匹配:复盘英伟达数据中心芯片产品,其中明显可以看到显存带宽与互联互通传输速度的稳定增长。AI高速互联时代,高算力与高效传输架构相匹配架构型号规格英伟达Volta架构V100英伟达Turing架构T4英伟达Ampere架构V100sPCIeA100A800PCIePCIeSXM2PCIeSXMPCIeSXMNVIDIAAmpereNVIDIAAmpere芯片架构NVIDIAVoltaNVIDIAVoltaN

文档评论(0)

topband + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6022005030000000

1亿VIP精品文档

相关文档