- 1、本文档共21页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
目录
一、豆包大模型产品力大幅增强,推动AI应用商业繁荣4
二、人工智能产业加快增长,应用及算力是两大支柱8
三、算力产业链:服务器是算力基础设施11
1.大模型打开算力需求,服务器建设规模快速增长11
2.液冷技术低能耗高散热,受益算力扩建浪潮12
四、算力产业链:芯片是智能核心,国产化短板明显16
五、算力产业链:光模块快速放量,产品结构向高端升级18
六、投资建议21
1.建议关注21
2.行业重点公司一致盈利预测21
七、风险提示22
图表目录
图1:豆包大模型产品矩阵丰富4
图2:豆包视觉理解模型具备更强内容识别能力5
图3:豆包视觉理解模型具备更强理解和推理能力5
图4:火山引擎首次发布豆包3D生成模型5
图5:豆包3D生成模型可根据文本生成3D场景5
图6:豆包通用模型Pro综合能力大幅提升6
图7:通用模型Pro在指令遵循、代码、数学等指标对标GPT-4o6
图8:豆包文生图模型能力升级6
图9:豆包音乐模型能力升级6
图10:豆包通用模型Pro在大模型测评总榜中排名第一7
图11:豆包视觉理解模型在视觉语言模型测评榜单中排名第二7
图12:豆包视觉理解模型使用成本大幅低于行业平均水平7
图13:豆包APP在11月全球AI产品榜中排名第二7
图14:预计2022-2024年全球AI支出年增速高于20%8
图15:预计2024年中国智能算力规模同比增长50%8
图16:IDC预计2024-2028年全球人工智能资本开支复合增速GAGR达29%9
图17:IDC预计2028年软件资本开支将占人工智能支出的57%9
图18:AI服务器出货量高速增长11
图19:搭载鲲鹏920处理器的鲲鹏服务器主板12
图20:华为推出昇腾系列AI算力基础设施12
图21:传统风冷技术与液冷技术原理对比13
图22:液冷技术散热能力显著优于风冷技术13
图23:液冷技术节能水平显著优于风冷技术13
2
图24:2019-2022年中国液冷数据中心市场规模15
图25:2022-2027年中国液冷数据中心市场规模预测15
图26:NvidiaGPUH200芯片示意图16
图27:H200较H100相比在存储性能上有大幅提升16
图28:AI大模型中东西向流量显著增加18
图29:叶脊网络架构适用于东西向流量传输18
图30:NvidiaDGXH100架构示意图19
图31:全球光模块市场在2027年有望突破200亿美元20
表1:人工智能大模型的参数规模呈指数级增长趋势8
表2:国内厂商加大对AIAgent等大模型驱动下的人工智能应用的投入10
表3:具有1750亿个模型参数的大模型训练一天需要约2917台NvidiaA100服务器11
表4:主流液冷技术与传统风冷技术冷却效果指标对比14
表5:不同密度数据中心适用的冷却技术14
表6:国产AI芯片性能指标仍与国际顶尖水平存在较大差距16
表7:BIS禁令限制高性能AI芯片向中国出口17
表8:叶脊网络架构对光模块数量需求大幅提升18
表9:NvidiaDGXH100架构所需GPU、交换机数量19
表10:中际旭创在2023年全球光模块企业排名中位居第一20
表11:万得一致盈利预测21
3
一、豆包大模型产品力大幅增强,推动AI应用商业繁荣
2024年12月火山引擎冬季FORCE原动力大会推出豆包视觉理解大模型和3D生产大模
型,并将通用模型Pro、音乐生产模型和文生图模型升级,进一步丰富产品矩阵。2024年
5月火山引擎春季FORCE原动力大会首次发布豆包大模型系列产品以来,仅7个月就再度
升级,并在多项大模型能力测评榜单中居于前列。本次大会新推出的豆包视觉理解大模型和
3D生产大模型拓展了模型的内容识别、视觉描述和3D内容生成能力,并显著降低使用成
本,
文档评论(0)