- 1、本文档共34页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
高性能大语言模型推理2024/12/61
LLM大语言模型的基本结构LayernormAttentionSiluMatMulRotaryEmbeddingKVCache2024/12/62
LLM大语言模型的基本结构LayernormAttentionSiluMatMulRotaryEmbeddingKVCache2024/12/63OpnameTypeGputimeMatmulForQGemm30MatmulForKGemm31MatmulForVGemm30MatMulForOGemm31SkipRMSNormANormalization5FeedForwardGemmAGemm70FeedForwardGemmBGemm71FeedForwardGemmCGemm73SkipRMSNormBNormalization5AttentionAttention9(会根据输入长度变化哦)
LLMInferencePPL.LLM将推理分成Prefill阶段Decoding阶段2024/12/64
LLMInferencePPL.LLM将推理分成Prefill阶段Decoding阶段2024/12/65
LLMBenchmarkThoughtput(吞吐量)FirstTokenLatency(首字延迟)Latency(延迟)QPS(每秒请求数)2024/12/66
LLMBenchmarkThoughtput(吞吐量)FirstTokenLatency(首字延迟)Latency(延迟)QPS(每秒请求数)2024/12/67LLaMAFP16H800PPL.NN.LLMCUDA12.0modelsize(B)gpubatchinputlenoutputlenprefill(ms)decode(ms)throughput(tokens/s)mem(GiB786.83145.8513.26846.91288.3213.34126.95573.6613.50107.051131.1013.82711682567.947.152229.6514.477132825610.417.983992.1815.777164825616.368.557429.8518.3671128825630.0310.4712095.6623.5771256825658.6915.2016597.2333.9771384825683.4222.9016536.8644.36715128256110.8225.4519785.2354.78717688256165.1937.1920298.5275.577111024102430.868.64115.4013.867121024102458.338.75227.0914.5671410241024109.138.88445.3615.9371810241024213.489.23848.0418.70711610241024415.9510.061528.7324.22713210241024830.3513.842184.1735.277164102410241633.8920.182939.0757.377180102410242078.3722.153309.2568.42
LLMBenchmarkThoughtput(吞吐量)FirstTokenLatency(首字延迟)Latency(延迟)QPS(每秒请求数)2024/12/68
/openppl-public/ppl.llm.serving/blob/master/tools/samples_1024.jsonPPLServingThoughtput(吞吐量)FirstTokenLatency(首字延迟)Latency(延迟)QPS(每秒请求数)=K/完成K个请求的时间2024/12/69Dataset:/openppl-public/ppl.llm.serving/blob/master/tools/samples_1024.json
LLMInferenceLLM的推理由一些子过程构成:Tokenize(将文本转换为向量)Computing(模型推理)Detokenize(将向量转换为文本)Sampling(依据推理结果进行采样)2024/12/610在每一个Decoding阶段结束时,我们都返回一次
您可能关注的文档
- 2024安全价值赋能之应用数据安全建设.pptx
- 2024大模型技术及其在金融行业的应用探索.pptx
- 2024高性能LLM推理框架设计与实现.pptx
- 2024数据资产和数据管理的十大趋势.pptx
- 公司党委关于2024年工作总结及2025年工作计划.docx
- 党委2024年度抓基层党建述职评议考核工作方案.docx
- 市生态环境局领导班子2024年度落实全面从严治党主体责任情况报告.docx
- 某市科协党组2024年履行全面从严治党主体责任情况报告.docx
- 局2024年全面从严治党和党风廉政建设工作总结.docx
- 某单位2024年度必威体育官网网址工作盘点与总结.docx
- 国有企业2024年工作情况总结及下一步工作计划.docx
- 党建工作典型案例材料:以“跨村联建”党建模式推动乡村全面振兴.docx
- 国企工会会员代表大会上的工作报告(通用版).docx
- 市农业农村局党组关于拆旧复垦和农村集体“三资”监管专项巡察反馈问题整改情况的报告.docx
- 2024年11月份重要讲话、重要会议心得体会汇编139篇.docx
- 2024年全县意识形态工作总结报告.docx
- 某某村驻村第一书记2024年述职报告.doc
- 在某某市乡镇人大工作座谈会上的讲话.doc
- 某某副市长在2024年全市今冬明春乡村绿化工作动员部署会上的讲话.doc
- 某某党组书记2024年党建工作述职报告.doc
文档评论(0)