《大数据挖掘与统计机器学习(第3版)》 课件 8_神经网络.pptx

《大数据挖掘与统计机器学习(第3版)》 课件 8_神经网络.pptx

  1. 1、本文档共25页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

1;什么是神经网络;神经网络的发展历史;神经网络的发展历史;深度学习与浅层学习;神经网络用来做什么;8.1前馈神经网络;8.1.2人工神经元;引入激活函数的目的是在模型中引入非线性。如果没有激活函数,无论神经网络有多少层,最终都是一个线性映射,单纯的线性映射无法解决线性不可分问题,只相当于有一个隐层的神经网络。引入非线性可以让模型解决线性不可分问题。(随着网络的加深,通过非线性映射可以构造出各种有趣的函数)

(1)阈值函数——阶跃函数和对称型阶跃函数

(2)分段线性函数——分段线性函数和对称型分段线性函数

(3)sigmoid函数

(4)双曲正切函数tanh

(5)ReLu函数(RectifiedLinearUnits)

;阈值函数——阶跃函数和对称型阶跃函数

这是最简单的激活函数,其输出状态取二值(1与0,或+1与-1),用来简单模拟生物神经元“兴奋—抑制”的二值状态。

;分段线性函数——分段线性函数和对称型分段线性函数

自变量与函数值在一定区间内满足线性关系;sigmoid函数

具有非线性、单调性和可微性,在线性和非线性之间具有较好的平衡,是人工神经网络中最常用的一种激活函数。

两个缺点:均值不是0;梯度消失——后面解释

当z值非常大或者非常小时,sigmoid函数的导数g′(z)将接近0。这会导致权重W的梯度将接近0,使得梯度更新十分缓慢,即梯度消失。

;双曲正切函数tanh

tanh函数在0附近很短一段区域内可看做线性的。由于tanh函数均值为0,因此弥补了sigmoid函数均值为0.5的缺点。

缺点:梯度消失——后面解释

当z很大或很小时,g′(z)接近于0,会导致梯度很小,权重更新非常缓慢,即梯度消失问题

;ReLu函数

弥补了sigmoid函数以及tanh函数的梯度消失问题。

计算速度要快很多。ReLU函数只有线性关系,不管是前向传播还是反向传播,都比sigmod和tanh要快很多。(sigmod和tanh要计算指数,计算速度会比较慢)

缺点:当输入为负时,梯度为0,会产生梯度消失问题。;8.1.3前馈网络;神经网络的学习;8.2反向传播(BP)算法;8.2.1向前传播

;8.2.2?;8.2.3反向传播(BP)算法;?;

;?;8.2.4激活函数的选择;PyTorch应用实例

您可能关注的文档

文档评论(0)

lai + 关注
实名认证
内容提供者

精品资料

版权声明书
用户编号:7040145050000060

1亿VIP精品文档

相关文档