- 1、本文档共2页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
大模型模型选择及需求算力评估
1、选型参考依据
2022年9月,DeepMind(Chinchilla论文)中提出Hoffmanscalinglaws:表明每个参数需要大约20个文本token进行训练。比如一个7B的模型需要140Btoken,若每个token使用int32(四字节)进行编码的话,就是560GB的数据。依据该原则,评估中华文物领域专业大模型应选取的模型及需要的训练数据。
通过查阅相关文献资料及一些大模型基础测试报告,大模型参数量一般在54B以上时会体现出模型优势,但10B以下模型在性能损失较小的情况下部署及运行资源拥有较大优势。因此,中国文化领域专业大模型同样应构建10B下和10B上2个参数规模的模型。
2、模型选择
通过查阅HuggingFace中各类大模型,目前开源大模型多以8B、13B、70B参数量较多,综合考虑,选取8B和70B两种规格。以下针对这两种规则选择相应模型,并计算所需的训练数据量。
(1)8B模型的选择
截至2024年4月18日,全球最先进的开源大模型为META的Llama3,该模型共开源8B和70B两个参数版本。对应中文处理,一些国内开源模型如智谱AI的GLM-3由于扩充了词汇表,对中文的处理更为准确,可作为备选方案。因此,对于8B参数模型,需求的训练数据量为:
8B模型训练数据量=8*20*10^9*4/1024/1024/1024=596(GB)。
(2)70B模型的选择
70B模型选择LLAMA-3-70B模型,需求的训练数据量为:
8B模型训练数据量=70*20*10^9*4/1024/1024/1024=5216(GB)。
3、算力估算
模型训练时的浮点运算数量(TrainingFLOPS)与参数量(N)和数据量(D)存在关联,遵循的关联关系为TrainingFLOPS=6ND,因此,8B和70B模型对应的总运算量为:
8B模型计算总量=6*8*10^9*8*20*10^9=7.68*10^21(FLOPS)
70B模型计算总量=6*70*10^9*70*20*10^9=5.88*10^23(FLOPS)
假设在90天内完成训练,则8B和70B分别需要的算力为:
8B模型需求算力=7.68*10^21(FLOPS)/(24*3600*90)≈0.99PFLOPS
70B模型需求算力=5.88*10^23/(24*3600*90)≈76PFLOPS
大模型常采用半精度浮点运算以保障运算效率与精度,因此8B、70B模型训练90天需要的算力分别为0.99P@FP16和76P@FP16。
4、GPU数量需求
如采用NvidiaA100GPU(该芯片FP32峰值算力19.5TFLOPS,FP16峰值算力312TFLOPS)计算,GPU利用率0.8,则需要的GPU数量分别为:
8B模型GPU数量=7.68*10^21*(40/113)/(312*10^12*24*3600*90*0.8)≈2(个)。
70B模型GPU数量=5.88*10^23*(40/113)/(312*10^12*24*3600*90*0.8)≈107(个)。
您可能关注的文档
最近下载
- JingChaDaXue《灭火救援指挥》期末试卷(A)参考答案.docx VIP
- QC小组--提高抹灰工程施工质量一次合格率.ppt
- 2021-2022学年江苏省淮安市部编版四年级上册期末考试语文试卷.docx
- 2024译林版三年级英语上册期末专项训练:句子排序.pdf VIP
- 2022-2023学年济南市市中区九年级上学期期末化学试卷(含答案解析).docx
- 2023-2024学年福建省厦门市思明区莲花中学七年级(上)期末数学试卷及答案解析.pdf
- 家庭情况调查表【范本模板】.pdf VIP
- 北师大版(2024新版)七年级上册生物期末模拟练习试卷(含答案解析).docx
- 稠油油藏水平井堵水调剖技术研究应用.ppt
- 1_清稿1-质量管理体系认证规则(征求意见稿)V1.1.doc
文档评论(0)