- 1、本文档共61页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
内容要点:
•大语言模型(LLM)简介
•LLM模型优化日常工作效率
•LLM模型赋能金融投研
•风险提示
2请务必阅读正文之后的信息披露和法律声明
大大大大语言模型语语语言言言模模模型型型((((LarLLLaaarrrggggeeeeLLLLanguaaannnggguuuaaaagegggeeeMMMModooodddeeeel,lll,,,LLM)LLLLLLMMM)))
2018年Google和OpenAI分别提出了BERT和GPT-1模型,
开启预训练大语言模型时代。
表:语言模型的发展历程简介
语言模型模型简介与特点
•基于统计方法——单词序列的概率分布,如N-gram模型。
统计语言模型
•模型简单但受限于固定上下文长度。
神经网络语言模型•通过输入前面的n−1个词来预测当前词。
(2003)•词的独热编码被映射为一个低维稠密的实数向量。
Word2Vec•模型结构和NNLM基本一致,通过无监督方式学习语义知识。
(2013)•训练目标为获得WordEmbedding。
•使用LSTM作为编码器,自动地根据词语的上下文信息去动
ELMO态调整词语的词向量。
(2018)
•开启了语言模型预训练的大门。
•基于Transformer结构的模型,相比其它深度神经网络的参
BERT和GPT-1数量有数量级上提升。
(2018)
•通常采用预训练微调范式,开启了预训练语言模型时代。
资料来源:海通证券研究所3请务必阅读正文之后的信息披露和法律声明
大大大大语言模型语语语言言言模模模型型型((((LarLLLaaarrrggggeeeeLLLLanguaaannnggguuuaaaagegggeeeMMMModooodddeeeel,lll,,,LLM)LLLLLLMMM)))
2018年Google和OpenAI分别提出了BERT和GPT-1模型,
开启预训练大语言模型时代。
表:基于Transformer结构的语言模型分类
模型结构特征
全称:BidirectionalEncoder
RepresentationsfromTransformers
纯Encoder模型
训练:掩码语言模型
(BERT-Style)
模型类型:判别型
预训练任务:预测被掩盖的词
全称:GenerativePre-trainedTransformer
纯Decoder模型训练:自回归语言模型
(GPT-Style)模型类型:生成型
您可能关注的文档
- 《回答增长的持续性问题》.pdf
- 0BB即将规模化应用,助力电池片降本增效.pdf
- 7月金融数据点评:社融口径下信贷少见负增.pdf
- 7月经济数据点评:边际积极变化不改总量压力.pdf
- 8月风格配置观点:“耐心资本”崛起,红利风格年内第二轮行情启动.pdf
- 24Q2DRAM产业营收环比%2b24.8%25,预计第三季度合约价延续上涨.pdf
- 134号文或部分替代14号文.pdf
- 4家上市公司业绩初探2024年中报季.pdf
- AI行业“大模型2.0”报告:展望Gemini2/GPT,Next,从IntelligencePerToken到Intelligence.pdf
- REITs处在顺风情绪中,偏牛格局有望延续.pdf
文档评论(0)