寒武纪(688256)深度报告:云程发轫,厚积薄发.docx

寒武纪(688256)深度报告:云程发轫,厚积薄发.docx

  1. 1、本文档共26页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

目录

引言——AIGC时代,全球智算军备竞赛 6

寒武纪:以技术立身的纯正国产算力领军 9

筚路蓝缕,国产人工智能芯片领军享先发 9

营收相对稳健,持续投入或迎来厚积薄发 14

总量份额双升共振,国产算力迎历史机遇 17

技术变革驱动,全球算力行业持续高增长 17

国内外因素共振,国产算力份额有望提升 19

云边端产品升级迭代,软硬件协同筑生态 23

兼具软硬件核心技术,云边端产品频迭代 23

软硬件协同完善生态,智算集群优势尽显 25

风险提示 29

图表目录

图1:Transformer引发本轮AI浪潮 6

图2:参数规模达到一定量级时产生涌现效应 6

图3:模型参数规模、训练数据集规模、计算资源投入与模型性能间存在ScalingLaw 7

图4:三要素同步提升以获得最佳性能 7

图5:ScalingLaw将不断在其他领域复现,带动算力产业需求持续旺盛 8

图6:寒武纪发展历程 9

图7:寒武纪股权结构 10

图8:终端智能处理器IP架构 13

图9:寒武纪智能计算集群系统软硬件总体架构 14

图10:寒武纪营收及增速 14

图11:寒武纪归母净利润 14

图12:寒武纪业务结构 15

图13:寒武纪各业务占比 15

图14:寒武纪近五年毛利率变化 15

图15:寒武纪细分子业务毛利率变化 15

图16:公司期间费用 16

图17:全球GPU市场空间预测(单位:亿美元) 17

图18:全球数据中心GPU市场空间及预测(单位:亿美元) 17

图19:2019-2025年中国人工智能芯片市场规模(单位:亿元) 17

图20:中国人工智能芯片市场规模占比 17

图21:英伟达营业收入(单位:亿美元) 18

图22:英伟达数据中心业务营业收入(单位:亿美元) 18

图23:2019年1月至今英伟达股价走势(单位:美元) 18

图24:国内外代表性互联网厂商自研芯片情况 19

图25:2022-2027年中国人工智能服务器工作负载结构及预测 19

图26:寒武纪核心技术框架结构 23

图27:云边端产品布局 24

图28:寒武纪基础软件系统平台CambriconNeuWare 26

图29:CambriconNeuWare训练软件平台 26

图30:推理加速引擎MagicMind 26

图31:智能计算集群系统软硬件总体架构 27

图32:智能计算集群系统整体业务流程 27

表1:寒武纪管理层简介 10

表2:云、边、端三种场景对芯片特性要求不同 11

表3:公司云端产品 11

表4:公司边缘端产品 12

表5:公司终端智能处理器IP 12

表6:首次授予部分公司层面业绩考核要求 16

表7:美国政府不断限制中国使用美先进算力 20

表8:2024年各省份智算中心相关政策梳理 20

表9:近年来三大运营商AI服务器集采招标统计 21

表10:云边端三大产品线产品迭代梳理 23

表11:主要算力芯片参数指标对比 24

表12:2019-2023年寒武纪中标智算相关项目梳理 27

表13:公司利润敏感性分析 29

引言——AIGC时代,全球智算军备竞赛

Transformer架构大力出奇迹的成功是本轮AI革命的重要理论支撑。本轮生成式AI的技术变革由Transformer架构引发,在基于Transformer架构进行模型迭代过程中,实证产业规律显示,模型的规模越大(参数越多),模型的能力越强,并且当参数达到一定量级时模型会涌现出新的能力产生质变,这一现象被总结为“尺度定律”(ScalingLaws)。

Transformer模型架构示意图 LLMs进化树 模型向更大参数方向演化BERT模型结构

Transformer模型架构示意图

LLMs进化树

模型向更大参数方向演化

BERT模型结构

GPT模型结构

资料来源:《AttentionIsAllYouNeed》,GoogleResearch,《HarnessingthePowerofLLMsinPractice:ASurveyonChatGPTandBeyond》,TalkAI,

图2:参数规模达到一定量级时产生涌现效应

资料来源:《AreEmergentAbilitiesofLargeLanguageModelsaMirage?》,

ScalingLaws(尺度定律)支撑AI算力需求的爆发式增长。ScalingLaws表明,模型规模越大则能力越

您可能关注的文档

文档评论(0)

535600147 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档