- 1、本文档共76页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
DeepSeek-R1\Kimi1.5及
类强推理模型开发解读
Outline2
➢DeepSeek-R1开创RL加持下强推理慢思考范式新边界
➢DeepSeek-R1Zero及R1技术剖析
➢Pipeline总览\DeepSeek-V3Base\DeepSeek-R1Zero及R1细节分析
➢RL算法的创新:GRPO及其技术细节
➢DeepSeek-R1背后的InsightsTakeaways:RL加持下的长度泛化\推理范式的涌现
➢DeepSeek-R1社会及经济效益
➢技术对比探讨
➢STaR-basedMethodsvs.RL-basedMethods强推理路径对比(DS-R1\Kimi-1.5\o-series)
➢蒸馏vs.强化学习驱动:国内外现有各家技术路线对比分析及Takeaways
➢PRMMCTS的作用
➢从文本模态到多模态
➢其他讨论:Over-Thinking过度思考等
➢未来方向分析探讨
➢模态穿透赋能推理边界拓展:Align-DS-V
➢合成数据及Test-TimeScaling:突破数据再生产陷阱
➢强推理下的安全:形式化验证FormalVerification\审计对齐DeliberativeAlignment
➢补充拓展:DeepSeek-V3解读
DeepSeek-R1开创RL加持下强推理慢思考范式新边界3
➢OpenAIo1开启后训练Post-Training时代下的RL新范式:后训练扩展律Post-TrainingScalingLaw
➢DS-R1独立发现了一些通往o1路上的核心理念,并且效果还好到受到了OpenAI的认可
➢如何通过有效的Test-TimeScaling和Train-TimeScaling提升模型的推理能力?
➢得益于纯大规模强化学习,DeepSeek-R1具备强大推理能力与长文本思考能力,继开源来备受关注。
➢DeepSeekR1-Zero和R1的出现再次证明了强化学习的潜力所在:
➢R1-Zero从基础模型开始构建,完全依赖强化学习,而不使用人类专家标注的监督微调(SFT);
➢随着训练步骤增加,模型逐渐展现出长文本推理及长链推理能力;
➢随着推理路径增长,模型表现出自我修复和启发式有哪些信誉好的足球投注网站的能力;
DeepSeek-R1开创RL加持下强推理慢思考范式新边界4
➢得益于强大的推理能力与长文本思考能力,DeepSeekR1在复杂任务上表现卓越,成为开源领域的又
一里程碑,标志着开源社区在与闭源大模型(如OpenAIo1系列)的竞争中迈出了关键性一步。
➢DeepSeek-R1在数学代码任务上表现突出
➢DeepseekR1在AIME2024上获得了79.8%的成绩,略高于OpenAI-o1-1217。在MATH-500上,获得97.3%
的惊人成绩,表现与OpenAI-o1-1217相当。
➢在编码相关的任务中表现出专家水平,在
Codeforces上获得了2029Elo评级,在竞赛中表现
优于96.3%的人类参与者
➢DeepSeek-R1在知识类问答上推动科学探索边界:
➢MMLU\MMLU-Pro\GPQADiamond等STEM-
related榜单上取得良好表现
➢R1展现出强推理模型在AI-DrivenResearch的潜力
➢在长文本依赖任务如FRAMEs和事实性推断任务
Simple-QA上表现突出
回顾:Pre-TrainingScalingLaw5
➢Pre-TrainingScalingLaws:预训练模型上广泛观察到的现象,协调了计算量C、模
型参数量N和数据大小D之间的关系
回顾
文档评论(0)