2024高性能大语言模型推理.pptx

  1. 1、本文档共34页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

高性能大语言模型推理2024/12/61

LLM大语言模型的基本结构LayernormAttentionSiluMatMulRotaryEmbeddingKVCache2024/12/62

LLM大语言模型的基本结构LayernormAttentionSiluMatMulRotaryEmbeddingKVCache2024/12/63OpnameTypeGputimeMatmulForQGemm30MatmulForKGemm31MatmulForVGemm30MatMulForOGemm31SkipRMSNormANormalization5FeedForwardGemmAGemm70FeedForwardGemmBGemm71FeedForwardGemmCGemm73SkipRMSNormBNormalization5AttentionAttention9(会根据输入长度变化哦)

LLMInferencePPL.LLM将推理分成Prefill阶段Decoding阶段2024/12/64

LLMInferencePPL.LLM将推理分成Prefill阶段Decoding阶段2024/12/65

LLMBenchmarkThoughtput(吞吐量)FirstTokenLatency(首字延迟)Latency(延迟)QPS(每秒请求数)2024/12/66

LLMBenchmarkThoughtput(吞吐量)FirstTokenLatency(首字延迟)Latency(延迟)QPS(每秒请求数)2024/12/67LLaMAFP16H800PPL.NN.LLMCUDA12.0modelsize(B)gpubatchinputlenoutputlenprefill(ms)decode(ms)throughput(tokens/s)mem(GiB786.83145.8513.26846.91288.3213.34126.95573.6613.50107.051131.1013.82711682567.947.152229.6514.477132825610.417.983992.1815.777164825616.368.557429.8518.3671128825630.0310.4712095.6623.5771256825658.6915.2016597.2333.9771384825683.4222.9016536.8644.36715128256110.8225.4519785.2354.78717688256165.1937.1920298.5275.577111024102430.868.64115.4013.867121024102458.338.75227.0914.5671410241024109.138.88445.3615.9371810241024213.489.23848.0418.70711610241024415.9510.061528.7324.22713210241024830.3513.842184.1735.277164102410241633.8920.182939.0757.377180102410242078.3722.153309.2568.42

LLMBenchmarkThoughtput(吞吐量)FirstTokenLatency(首字延迟)Latency(延迟)QPS(每秒请求数)2024/12/68

/openppl-public/ppl.llm.serving/blob/master/tools/samples_1024.jsonPPLServingThoughtput(吞吐量)FirstTokenLatency(首字延迟)Latency(延迟)QPS(每秒请求数)=K/完成K个请求的时间2024/12/69Dataset:/openppl-public/ppl.llm.serving/blob/master/tools/samples_1024.json

LLMInferenceLLM的推理由一些子过程构成:Tokenize(将文本转换为向量)Computing(模型推理)Detokenize(将向量转换为文本)Sampling(依据推理结果进行采样)2024/12/610在每一个Decoding阶段结束时,我们都返回一次

文档评论(0)

优选文档 + 关注
实名认证
内容提供者

专注于发布优质文档,喜欢的可以关注一下哦~

1亿VIP精品文档

相关文档