- 1、本文档共23页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
DeepSeek-Coder:当大型语言模型遇到编程时-代码智
能的兴起
日
6
2
月
1
年
4
2
0
2
大型语言模型的快速发展已彻底革新了软件开发中的代码智能。然而,主要依赖闭源模型限制
]了广泛的研究与开发。为解决这一问题,我们推出了DeepSeek-Coder系列开源代码模型,其
E
S规模从13亿到330亿不等,并从2万亿个标记中从头开始训练。这些模型预先在高质量的项目
级代码语料库上进行训练,并采用16K窗口的填空任务来增强代码生成和填补。我们的广泛评
s.估表明,DeepSeek-Coder不仅在多个基准测试中实现了开源代码模型的最佳性能,还超越了
c现有的闭源模型如Codex和GPT-3.5。此外,DeepSeek-Coder模型处于宽松的许可之下,允
[许同时进行研究和无限制的商业使用。
2
v
6
9
1
4
1
.
1
0
4
2
:
v
i
X
r
a
图1|DeepSeek-Coder的性能
*核心贡献者,按名称字母顺序排序。
1.Introduction
软件开发领域因大型语言模型的迅速进步(OpenAI,2023;Touvronetal.,2023)而得到了显
著转型,这些模型带来了代码智能的新时代。这些模型有可能自动化和简化许多编码方面的工
作,从错误检测到代码生成,从而提高生产力并减少人为错误的可能性。然而,该领域的重大
挑战之一是在开源模型(Lietal.,2023;Nijkampetal.,2022;Rozieretal.,2023;Wanget
al.,2021)与闭源模型(GeminiTeam,2023;OpenAI,2023)之间的性能差距。尽管巨型闭
源模型非常强大,但由于其专有性质,许多研究人员和开发者仍然难以访问这些模型。
为了应对这一挑战,我们推出了DeepSeek-Coder系列。该系列包括一系列开源代码模型,规
模从13亿到33亿不等,涵盖每个规模的基版本和指令版本。每个系列中的模型均从87种编程
语言中提取的2万亿个标记重新训练,确保对编程语言和语法有全面的理解。此外,我们尝试
在仓库级别组织预训练数据,以增强模型在仓库内部跨文件上下文中的理解能力。除了在预训
练过程中使用下一个标记预测损失外,我们还引入了Fill-In-Middle(FIM)方法(Bavarianet
al.,2022;Lietal.,2023)。这种方法旨在进一步提升模型的代码完成能力。为满足处理更长
代码输入的要求,我们将上下文长度扩展到16K。这一调整使我们的模型能够处理更加复杂和
广泛的编码任务,从而增强了其在各种编码场景中的适用性和灵活性。
我们使用多种公开的代码相关基准进行了全面的实验。研究发现,在开源模型中,DeepSeek-
Coder-Base33B在所有基准测试中均表现出优越的性能。此外,
OpenAIGPT-3.5Turbo
Coder-Instruct33B超越在大多数评估基准中,
OpenAIGPT-4
显著缩小两者之间的性能差距并且采用了开源模型。令人惊讶的是,尽管参数量较少,Deep
Seek-Coder-Base7B在与参数量大五倍的模型(如CodeLlama-33B)相比时仍能展现出竞争
力的表现(Roziereetal.,2023)。总结来说,我们的主要贡献是:
•我们引入了DeepSeek-Coder-Base和DeepSeek-Coder-Instruct,这两种先进的代码集中型
大型语言模型(LLMs)。通过广泛训练于庞大的代码语料库,这些模型展示了对87种编程
语言的理解能力。此外,它们还提供了多种模型规模以满足不同计算和应用需求。我们首次
尝试在模型构建过程中纳入仓库级别的数据。
•我们的模型预训练阶段。我们发现这可以显著提升跨文件代码生成的能力。•我们的研究严
格分析了FIM训练策略对代码模型预训练阶段的影响。这些全面的研究结果揭示了F
文档评论(0)