2023中文BERT选择手册.docx

  1. 1、本文档共11页,其中可免费阅读5页,需付费49金币后方可阅读剩余内容。
  2. 2、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,可选择认领,认领后既往收益都归您。
  3. 3、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细先通过免费阅读内容等途径辨别内容交易风险。如存在严重挂羊头卖狗肉之情形,可联系本站下载客服投诉处理。
  4. 4、文档侵权举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

中文BERT选择手册

众所周知,像BERT这样的大型预训练模型通常会有上亿个参数,受累于庞大的模型大小和高延迟时间,使得这些庞大的模型无法部署到移动设备之上。而MobileBERT则是经过压缩和加速的BERT模型。像BERT一样,MobileBERT与任务无关,也就是说,可以通过简单的微调将其通用地应用于各种下游NLP任务。MobileBERT是BERT-LARGE的精简版本,同时具有精心设计的自注意力与前馈网络之间的平衡。为了训练MobileBERT,首先训练一个专门设计的教师模型,该模型是BERT-LARGE模型。然后,实现从该老师模型到MobileBERT的知识迁移。经验研究表明

文档评论(0)

智慧能源 + 关注
实名认证
服务提供商

企业信息管理师持证人

新能源集控中心项目 智慧电厂建设项目 智慧光伏 智慧水电 智慧燃机 智慧工地 智慧城市 数据中心 电力行业信息化

版权声明书
用户编号:6011145050000024
领域认证该用户于2023年02月15日上传了企业信息管理师

1亿VIP精品文档

相关文档