深度学习入门必须理解这25个概念.pdf

深度学习入门必须理解这25个概念.pdf

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
深度学习入门必须理解这 25 个概念 1、神经元( Neuron )——就像形成我们大脑基本元素 的神经元一样, 神经元形成神经网络的基本结构。 想象一下, 当我们得到新信息时我们该怎么做。当我们获取信息时,我 们一般会处理它,然后生成一个输出。类似地,在神经网络 的情况下,神经元接收输入,处理它并产生输出,而这个输 出被发送到其他神经元用于进一步处理,或者作为最终输出 进行输出。 2 、权重( Weights )——当输入进入神经元时, 它会乘以一个权重。例如,如果一个神经元有两个输入,则 每个输入将具有分配给它的一个关联权重。我们随机初始化 权重,并在模型训练过程中更新这些权重。训练后的神经网 络对其输入赋予较高的权重,这是它认为与不那么重要的输 入相比更为重要的输入。为零的权重则表示特定的特征是微 不足道的。让我们假设输入为 a ,并且与其相关联的权重为 W1 ,那么在通过节点之后, 输入变为 a *W1 。3 、偏差 (Bias ) ——除了权重之外,另一个被应用于输入的线性分量被称为 偏差。它被加到权重与输入相乘的结果中。基本上添加偏差 的目的是来改变权重与输入相乘所得结果的范围的。添加偏 差后,结果将看起来像 a* W1 偏差。这是输入变换的最终 线性分量。 4 、激活函数( Activation Function )——一旦将 线性分量应用于输入,将会需要应用一个非线性函数。这通 过将激活函数应用于线性组合来完成。激活函数将输入信号 转换为输出信号。应用激活函数后的输出看起来像 f (a *W1+ b ),其中 f 就是激活函数。在下图中,我们将 n 个输 入给定为 X1 到 Xn 而与其相应的权重为 Wk1 到 Wkn 。 我们有一个给定值为 bk 的偏差。权重首先乘以与其对应的 输入,然后与偏差加在一起。 而这个值叫做 u 。U = ΣW*X +b 激活函数被应用于 u ,即 f(u) ,并且我们会从神经元接收最 终输出,如 yk = f (u )。常用的激活函数最常用的激活函数 就是 Sigmoid ,ReLU 和 softmax (a )Sigmoid ——最常用 的激活函数之一是 Sigmoid ,它被定义为: sigmoid(x)=1/(1+e -x )Sigmoid 变换产生一个值为 0 到 1 之间更平滑的范围。我们可能需要观察在输入值略有变化时 输出值中发生的变化。光滑的曲线使我们能够做到这一点, 因此优于阶跃函数。 (b )ReLU (整流线性单位)——与 Sigmoid 函数不同的是,最近的网络更喜欢使用 ReLu 激 活函数来处理隐藏层。 该函数定义为: f(x)=max(x,0) 当 X0 时,函数的输出值为 X ;当 X 使用 ReLU 函数的最主要的 好处是对于大于 0 的所有输入来说,它都有一个不变的导 数值。常数导数值有助于网络训练进行得更快。 (c ) Softmax —— Softmax 激活函数通常用于输出层,用于分类 问题。它与

您可能关注的文档

文档评论(0)

hao187 + 关注
官方认证
内容提供者

该用户很懒,什么也没介绍

认证主体武汉豪锦宏商务信息咨询服务有限公司
IP属地上海
统一社会信用代码/组织机构代码
91420100MA4F3KHG8Q

1亿VIP精品文档

相关文档