- 1、本文档共19页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
基于lora的llama2二次预训练
来自:AiGC面试宝典
2024年01月27日20:47
•基于lora的llama2二次预训练
•一、为什么需要对llama2做基于lora的二次预训练?
•二、基于lora的llama2二次预训练的目标是什么?
•三、基于lora的llama2二次预训练的思想是什么?
•四、基于lora的llama2二次预训练语料构建思路?
•五、如何基于lora的llama2二次预训练?
•5.1基于lora的llama2二次预训练参数介绍
•5.2基于lora的llama2二次预训练
•六、如何基于lora的llama2微调?
•6.1训练数据介绍
•6.2基于lora的llama2微调参数介绍
•6.3基于lora的llama2微调
•七、如何使用基于lora的llama2做推理?
•致谢
一、为什么需要对llama2做基于lora的二次预训练?
加入中文训练语料进行llama2的二次预训练,这样模型就可以增加支持中文输出的能力。
二、基于lora的llama2二次预训练的目标是什么?
在保持预训练模型权重不变的情况下,通过添加额外的网络层并仅训练这些新增的网络层参数,实现大模型的高
效微调(peft)。
三、基于lora的llama2二次预训练的思想是什么?
思想:基于对模型本征维度(intrinsicdimension)的理解。
“本征维度”是指模型中真正有用的、能够影响模型输出的参数数量。
Aghajanyan研究发现,预训练模型的内在维度实际上非常小,即只有一小部分参数对模型输出有显著影响。就是
存在一个极低维度的参数,微调它和在全参数空间中微调能起到相同的效果
LORA假设模型在任务适配过程中权重的改变量是低秩(lowrank)
W=W0+ΔW,ΔW=BA
参数更新范围:只训练新增的网络层参数
四、基于lora的llama2二次预训练语料构建思路?
1.预训练数据集下载
本项目基于lora的llama2二次预训练语料来自中文书籍,一个中文书籍收录整理项目。
$gitclone/shjwudp/shu.git
1.数据集格式介绍
介绍:数据集格式,.txt结尾
1.数据集介绍
《红楼梦》
曹雪芹高鄂著
第一回甄士隐梦幻识通灵贾雨村风尘怀闺秀
列位看官:你道此书从何而来?说起根由,虽近荒唐,细按则深有趣味。待在下将此来历注
明,方使阅者了然不惑。
原来女娲氏炼石补天之时,于大荒山无稽崖炼成高经十二丈、方经二十四丈顽石三万六千五百
零一块。娲皇氏只用了三万六千五百块,只单单剩了一块未用,便弃在此山青埂峰下。谁知此
石自经煅炼之后,灵性已通,因见众石俱得补天,独自己无材不堪入选,遂自怨自叹,日夜悲
号惭愧。
一日,正当嗟悼之际,俄见一僧一道远远而来,生得骨格不凡,丰神迥别,说说笑笑,来至峰
下,坐于石边,高谈快论:先是说些云山雾海、神仙玄幻之事,后便说到红尘中荣华富贵。此
石听了,不觉打动凡心,也想要到人间去享一享这荣华富贵,但自恨粗蠢,不得已,便口吐人
言,向那僧道说道:“大师,弟子蠢物,不能见礼了!适闻二位谈那人世间荣耀繁华,心切慕
之。弟子质虽粗蠢,性却稍通,况见二师仙形道体,定非凡品,必有补天济世之材,利物济人
之德。如蒙发一点慈心,携带弟子得入红尘,在那富贵场中,温柔乡里受享几年,自当永佩洪
恩,万劫不忘也!”二仙师听毕,齐憨笑道:“善哉,善哉!那红尘中有却有些乐事,但不能
永远依恃;况又有‘美中不足,好事多磨’八个字紧相连属,瞬息间则又乐极悲生,人非物
换,究竟是到头一梦,万境归空,倒不如不去的好。”这石凡心已炽,那里听得进这话去,乃
复苦求再四。二仙知不可强制,乃叹道:“此亦静极思动,无中生有之数也!既如此,我们便
携你去受享受享,只是到不得意时,切莫后悔!”石道:“自然,自然。”那僧又道:“若说
你性灵,却又如此质蠢,并更无奇贵
文档评论(0)