深度学习在自然语言处理的应用v.pptVIP

  1. 1、本文档共55页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
深度学习在自然语言处理的应用v

* 探讨与思考 与CRF的比较及区别与联系 CRF:线性 VS DL:非线性 CRF:高维离散特征 VS: DL:低维连续特征 结论:非线性模型对于低维连续特征有效,对高维离散特征无效 DL在推荐系统方面应用方法的思考 不成熟的初步思路 我个人看好DL在NLP方面的作用 与传统方法比有明显优点 发展初期:机会多、挑战大 NLP方向博士生的黄金时代 非常容易想到很多New Idea 一把新的锤子,很多钉子可以去敲 * 广告时间 * Thanks! * 不同粒度语言单元的表示-短语/句子/文档 方法一:单词词向量取和(Summrization) 很多情况都做此种简化处理 过于简单,但是仔细思考有一定道理 方法二:单词词向量加权求和 Huang’s Work 权重:类似于IDF 方法三:RNN * 不同粒度语言单元的表示-短语/句子/文档 方法四:Matrix-Vector NN * 不同粒度语言单元的表示-短语/句子/文档 方法五:卷积神经网络 * 大纲 深度学习简介 基础问题:语言表示问题 Word Embedding 不同粒度语言单元的表示 字符/单字/单词/短语/句子/文档 值得重点关注的模型 RAE/Tensor Network/卷积网络 NLP的应用 语言模型 中文分词 知识挖掘 情感计算 机器翻译 Paraphrase IR 探讨与思考 * RAE(Recursive AutoEncoders) 推导短语及句子级别的Word Embedding表示 * Neural Tensor Networks 表达多个实体之间的关系 /两个单词之间某种操作 * Neural Tensor Networks * 卷积网络( Convolutional Deep Neural Network ) 全局特征选择与融合/不定长转换为定长表示 * 大纲 深度学习简介 基础问题:语言表示问题 Word Embedding 不同粒度语言单元的表示 字符/单字/单词/短语/句子/文档 值得重点关注的模型 RAE/Tensor Network/卷积网络 NLP的应用 语言模型 中文分词 知识挖掘 情感计算 机器翻译 Paraphrase IR 探讨与思考 * 语言模型 * 语言模型 Bilinear-LM * 语言模型 RNNLM * 深度学习用于中文分词-思路1 * 深度学习用于中文分词-思路2 * 深度学习用于中文分词 两者思路基本相同 基于字的Word Embedding+三层神经网络+BEMS标记序列分类 思路2引入全局的Viterbi解码(分类后处理) 效果:和主流分词算法效果接近 CRF/Maxent+二元特征 类似思路同样可以套用到POS/NER/Parser等场景 这是利用Word Embedding解决NLP问题最直观的NLP应用思路 考虑探索下非标准三层神经网络结构的复杂模型 * 深度学习用于知识挖掘 两大类问题 现有知识库的新知识推理 CYC,WordNet,FreeNet…… 目前的文献做法大思路基本一致 已知实体用Word Embedding表示 实体关系用Tensor Network建模 后向传播+SGD训练 从自由文本中挖掘结构化知识 * 现有知识库的新知识推理 * 现有知识库的新知识推理 最小化目标函数: 正例: 负例: * 从自由文本中挖掘结构化知识 整体结构 词法级特征 * 从自由文本中挖掘结构化知识 句子级特征抽取:卷积网络 * 机器翻译(通用模型) 最常见的通用模型:Encoder-Decoder Model Encoder Decoder 语义向量 * 机器翻译(Encoder-Decoder具体例子) ACL2014 Best Paper:Fast and Robust Neural Network Joint Models for Statistical Machine Translation 网络结构 语言模型 翻译模型 * 机器翻译-很多地方可以引入DL 单词对齐 短语对齐 短语重排序 语言模型 翻译模型 联合模型 翻译结果重排序 …………… 单词对齐 * 情感计算 核心的两个问题 句子级的Word Embedding表示 前面讲过这个问题 如何将情感倾向编码到各级Word Embedding中 半监督或者监督学习:通过训练过程将情感倾向编码到WE结构中 * Paraphrase(整体框架) S1:The judge also refused to

您可能关注的文档

文档评论(0)

sheppha + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5134022301000003

1亿VIP精品文档

相关文档