基于知识表示学习和跨语言迁移增强的文本蕴含识别研究.pdf

基于知识表示学习和跨语言迁移增强的文本蕴含识别研究.pdf

  1. 1、本文档共77页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
摘 要 文本蕴含识别,也称为自然语言推断,是自然语言处理中的一项具有挑战性 的关键任务。目前,文本蕴含识别已经被广泛应用到了自然语言处理中的各项应 用之中,包括自动问答、信息检索以及机器翻译等。同时,文本蕴含识别同时也 是评估自然语言理解的重要任务之一。近年来,随着大规模文本蕴含基准数据集 的发布,可用于文本蕴含识别训练的数据大量增加,为深度学习方法在文本蕴含 识别任务上的应用提供了数据基础。目前,深度学习方法已经被广泛使用在文本 蕴含识别任务中,并取得了优异的性能效果。然而,目前基于深度学习的文本蕴 含识别方法仍存两方面的不足。一方面,现有的深度学习模型未能充分利用外部 知识资源。已有的深度神经网络绝大多数建立在词向量基础上,然而,判断两个 文本之间的蕴含关系往往需要的一些词向量以外的知识。例如,单词之间的反义 关系对文本蕴含识别中的矛盾标签识别具有重要作用。如果神经网络缺少这些外 部知识,往往难以对两个文本之间的蕴含关系进行准确的判断,使得文本蕴含识 别的性能下降。虽然已有一些方法使用外部知识对文本蕴含识别进行增强,并将 外部知识转化为一些可用于神经网络的数值特征或者通过一种流水线策略将外 部知识表示为实值向量,并集成到神经网络模型中,但是这些方法忽视了知识表 示与文本蕴含识别模型之间的交互,使得神经网络未能充分运用这些外部知识来 辅助文本蕴含识别判断。另一方面,现有的文本蕴含识别方法大多数聚焦于英文 数据,要使文本蕴含识别扩展至其他语言,必须对文本蕴含识别进行跨语言拓展。 已有一些方法利用双语对齐语料对齐源语言和目标语言的句子嵌入,但这些方法 严重依赖于双语对齐语料。也有一些方法使用跨语言预训练语言模型,在源语言 上进行微调,并应用于目标语言,但这些方法难以在两种语言上迁移知识。因此, 为了解决现有方法存在的这些不足之处,本文从两个方面对文本蕴含识别进行增 强: 1. 使用知识表示学习方法对 WordNet 知识图谱进行嵌入,提出了一种联合 训练知识表示学习模型和文本蕴含识别模型的框架。在三个常用的文本蕴含识别 基准数据集SNLI 、MultiNLI 和SciTail 上进行了大量对比实验,验证了该联合训 练框架的有效性; 2. 对文本蕴含识别方法进行了跨语言扩展,提出了一个基于对抗训练的跨 语言文本蕴含识别增强框架。该框架可以应用在经典的神经网络文本蕴含识别 模型和跨语言预训练模型上。在包含15 种语言的跨语言文本蕴含数据集XNLI 上验证了框架的有效性。 关键词:文本蕴含识别 自然语言推断 深度学习 跨语言文本蕴含识别 IV Abstract Recognizing textual entailment, also known as natural language inference, is a fundamental and challenging task in natural language processing. Nowadays, natural language inference has been widely used in many applications for natural language processing, including question answering, information retrieval and machine translation. It also plays a crucial role for evaluating natural language understanding. In recent years, with the emergence of large-scale corpora for natural language inference, deep neural models have become dominant in natural language inference, achieving outstanding performance. However, there are still two limitations in the existing deep

文档评论(0)

136****6583 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:7043055023000005

1亿VIP精品文档

相关文档