Tensorflow卷积神经网络(RNN).pptx

  1. 1、本文档共11页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
卷积神经网络1.理解DNN卷积神经网络2.掌握DNN神经网络模型1. 介绍DNN神经网络2. DNN神经网络特性卷积神经网络模型复杂度一个m*n*t的三层网络,连接权重的数量为m*n+n*t,bias的数量为n+t个。比如一个1000×1000的图像,可以表示为一个1000000的向量。如果隐含层数目与输入层一样,即也是1000000时,那么输入层到隐含层的参数数据为1000000×1000000=10^12通常模型的参数越多,模型的表现功能就越强。参数就像砖块,你的砖块越多,你可以用砖块表现的建筑也就越多。但是模型参数越多,越不好训练:参数多,局部最优值越多,最常用的梯度下降法训练 网络容易陷入局部最优点。训练花费时间越长,使用的时候需要的计算也相对多。卷积神经网络背景20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,提出了“感受野”的概念。1989年,Yann LeCun (现纽约大学教授) 和他的同事们就发表了卷积神经网络(Convolution Neural Networks, 简称CNN)的工作。卷积神经网络局部感知一般认为人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。卷积神经网络参数共享上面的局部连接中,每个神经元都对应100个参数,一共1000000个神经元,如果这1000000个神经元的100个参数都是相等的,那么参数数目就变为100。我们可以这100个参数(也就是卷积操作)看成是提取特征的方式,该方式与位置无关。这其中隐含的原理则是:图像的一部分的统计特性与其他部分是一样的。这也意味着我们在这一 部分学习的特征也能用在另一部分 上,所以对于这个图像上的所有位 置,我们都能使用同样的学习特征。如右图,滤波器为3X3的卷积核在5 X5的图像上做卷积的过程。每个卷 积核都是一种特征提取方式。卷积神经网络多卷积核上面所述只有100个参数时,表明只有1个100*100的卷积核,显然,特征提取是不充分的,我们可以添加多个卷积核,比如32个卷积核,可以学习32种特征。不同颜色表明不同的卷积核。每个卷积核都会将图像生成为另一幅图像。比如两个卷积核就可以将生成两幅图像,这两幅图像可以看做是一张图像的不同的通道。把他称为特征图。卷积神经网络Down pooling(池化,降采样)降低图像分辨率,减少训练维数对于一个96X96 像素的图像,假设我们已经学习得到了400个定义在8X8输入上的特征,每一个特征和图像卷积都会得到一个 (96 ? 8 + 1) × (96 ? 8 + 1) = 7921 维的卷积特征,由于有 400 个特征,所以每个样例 (example)都会得到一个 892 × 400 = 3,168,400 维的卷积特征向量。 在一个图像区域有用的特征极有可能在另一个区域同样适用,通过降采样可以减少特征的数量。常用pooling 有两种:mean-pooling、max-pooling 1、基于人工神经网络2、在人工神经网络前,用卷积滤波器进行特征抽取3、使用卷积核作为特征抽取器4、自动训练特征抽取器(即卷积核,即阈值参数)5、卷积核一次训练多次使用,可以在线学习。6、局部感受野+权值共享+多卷积核+降采样,使模型参数与特征大幅减小。

文档评论(0)

中小学K12教育 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档