网站大量收购闲置独家精品文档,联系QQ:2885784924

DeepSeekV3%26R1加速LLM训练%26推理端降本/数据平权,有望开启端侧/AI应用的黄金时代%26传统非AI公司价值重估.pptx

DeepSeekV3%26R1加速LLM训练%26推理端降本/数据平权,有望开启端侧/AI应用的黄金时代%26传统非AI公司价值重估.pptx

  1. 1、本文档共19页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

报告摘要DeepSeekV3/R1:颠覆行业生态的里程碑式创新,训练/推理成本骤降+不依赖监督数据+蒸馏成为捷径+宽松的开源协议DeepSeekV3多方面创新带来对标GPT-4o的性能+远低于4o的训练/推理成本:DeepSeekV3整个训练过程不到600万美金的成本,模型效果对标亿美金级成本的GPT-4o;推理成本也是4o的1/10以内。大幅降本的缘由是其在算法架构、训练环节、通信/计算优化/PTX层优化等多方面做出的创新:算法架构:引入MLA、MoE、MTP等多种方式压降训练/推理成本,并提高模型的推理能力。Training阶段:通过SFT与RL显著提升了post-training的成效,其中RL过程通过原创的GRPO算法实现(与PPO效果接近,大幅降低训练开销)。通信优化计算优化PTX层优化:DualPipe/FP8混合精度训练/定制PTX指令协同优化下,模型训练的通信效率/内存效率均明显提升。DeepSeekR1除了与V3同质的系列创新外,对行业影响最大的点在于论证了SFT过程可能不是刚需/蒸馏头部大模型比训练自有模型更高效: R1-Zero不依赖任何监督数据也可以涌现:R1-Zero在经过数千次的RL过程后,展现出了极强的推理能力(出现了aha-moment,涌现出超脱数据集的能力),说明不需要SFT过程,模型的推理能力也可以提升(高质量的监督数据不再是模型进化的门槛)——击碎数据崇拜。直接蒸馏成熟模型比依靠先进范式重训练自有模型更高效:基于R1蒸馏多个开源模型,效果均明显好于原模型;基于R1直接进行蒸馏得到的模型效果要好于将原模型基于R1训练框架进行重训练;这意味着对于绝大多数公司来说自研可能意义不大,蒸馏是捷径;这是除了成本因素外,冲击到云端算力叙事逻辑的核心。

报告摘要产业影响:看好AI应用/端侧AI/to-CAI/传统非AI公司受益技术/数据平权及AI降本当训练/推理/高质量数据都不再是门槛且蒸馏领先模型就是捷径,我们得出一些直观结论:AI应用端侧确定性受益:训练/推理成本指数级下降,且大模型蒸馏出的小模型效果提升显著;AI应用的迭代成本下降端侧模型可用性明显提高,泛AI应用/端侧AI全面受益(to-C可能略好于to-B)。建议关注:应用—金山办公、美图、焦点科技、科大讯飞、万兴科技、金蝶国际、用友软件;端侧——机器人(速腾聚创)、智联汽车(地平线机器人、知行汽车科技、禾赛科技、德赛西威、均胜电子、舜宇光学科技、比亚迪电子等)、手机(中科创达、虹软科技)、PC(联想)、AI玩具模组芯片厂商(乐鑫科技、移远通信、广和通、美格智能、瑞芯微、全志科技等)。后发者将迅速收敛与行业领先者的差距:LLM发力相对晚的互联网大厂将收敛与LLM头部大厂之间的差距;映射到智联汽车领域,传统车企或许也有可能加速收敛与特斯拉、华为、小鹏等头部智驾厂商的差距。建议关注:小米系(小米、金山办公、金山软件、金山云)、京东、快手等;传统自主品牌车企(比亚迪、吉利)。ASIC国产芯片生态:“算法+硬件+系统架构”协同优化确实能大幅提升硬件利用率,这说明通用GPU/CPU头部厂商垄断地位并不稳固,国产GPU/CPU随着市占提升/生态改善,将会更加繁荣。建议关注:海光信息、中科曙光、寒武纪、浪潮信息;传统非AI公司:“数据平权+技术平权”背景下,商业竞争的核心可能又会从AI切换为公司主业的过往竞争力,传统非AI公司估值可能重塑;建议关注:各行业头部公司。风险提示:行业竞争加剧风险、人工智能配套及监管政策不及预期、行业公司产品落地及市场拓展不及预期。

资料来源:DeepSeek-V3TechnicalReport、DeepSeek官网、OpenAI官网、方正证券研究所DeepSeekV3:大幅降低训练成本推理成本,对标GPT-4o的性能+远低于4o的训练/推理成本完成降秩且含有位置信息的KMLA:减少推理过程中对KV矩阵的重复计算引入latentC降秩Q/K/V;通过RoPE做位置编码Share-Expert每次都会引用专职Expert根据输入选topK个大幅降低训练成本:Pre-Training(每万亿token只需要180kH800GPUhours)总共14.7T的tokens用2048块H800训练了3.7天;整个Pre阶段只花了2664KGPUhours);假设2美元/小时H800租赁价格算,仅花费5.576M美元(不包括与架构、算法或数据的先前研究、消融实验相关的成本);4o的训练成本预计是亿美金级别。大幅降低推理成本:DSV3针对重复问题(不需要重新计算,可直接调用结果)输入成本为0.014$/1Mtokens,非重复任务为0.14$/1Mtok

文档评论(0)

535600147 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档