bp神经网络理论基础介绍.pptxVIP

  1. 1、本文档共72页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
人工神经元模拟生物神经元的一阶特性。 输入:X=(x1,x2,…,xn) 联接权:W=(w1,w2,…,wn)T 网络输入: net=∑xiwi 向量形式: net=XW;激活函数执行对该神经元所获得的网络输入的变换,也可以称为激励函数、活化函数: o=f(net) 1、线性函数(Liner Function) f(net)=k*net+c ; γ if net≥θ f(net)= k*net if |net|θ -γ if net≤-θ ? γ0为一常数,被称为饱和值,为该神经元的最大输出。 ;2019/12/17; β if netθ f(net)= -γ if net≤ θ β、γ、θ均为非??实数,θ为阈值 二值形式: 1 if netθ f(net)= 0 if net≤ θ 双极形式: 1 if netθ f(net)= -1 if net≤ θ ;β ;压缩函数(Squashing Function)和逻辑斯特函数(Logistic Function)。 f(net)=a+b/(1+exp(-d*net)) a,b,d为常数。它的饱和值为a和a+b。 最简单形式为: f(net)= 1/(1+exp(-d*net)) 函数的饱和值为0和1。 S形函数有较好的增益控制 ;2019/12/17;生物神经网六个基本特征 神经元及其联接、信号传递、训练、刺激与抑制、累积效果、 阈值。 人工神经元的基本构成;激活函数与M-P模型 线性函数、非线性斜面函数、阈值函数 S形函数 M-P模型;2019/12/17;W=(wij) 输出层的第j个神经元的网络输入记为netj: netj=x1w1j+x2w2j+…+xnwnj 其中, 1≤ j ≤ m。取 NET=(net1,net2,…,netm) NET=XW O=F(NET);2019/12/17;V=(vij) NET=XW+OV O=F(NET) 时间参数神经元的状态在主时钟的控制下同步变化 考虑X总加在网上的情况 NET(t+1)=X(t)W+O(t)V O(t+1)=F(NET(t+1)) O(0)=0 考虑仅在t=0时加X的情况。 稳定性判定;2019/12/17;层次划分 信号只被允许从较低层流向较高层。 层号确定层的高低:层号较小者,层次较低,层号较大者,层次较高。 输入层:被记作第0层。该层负责接收来自网络外部的信息;第j层:第j-1层的直接后继层(j0),它直接接受第j-1层的输出。 输出层:它是网络的最后一层,具有该网络的最大层号,负责输出网络的计算结果。 隐藏层:除输入层和输出层以外的其它各层叫隐藏层。隐藏层不直接接受外界的信号,也不直接向外界发送信号;约定 : 输出层的层号为该网络的层数:n层网络,或n级网络。 第j-1层到第j层的联接矩阵为第j层联接矩阵,输出层对应的矩阵叫输出层联接矩阵。今后,在需要的时候,一般我们用W(j)表示第j层矩阵。;2019/12/17;非线性激活函数 F(X)=kX+C F3(F2(F1(XW(1))W(2))W(3));2019/12/17;如果将输出信号反馈到输入端,就可构成一个多层的循环网络。 输入的原始信号被逐步地加强、被修复。 大脑的短期记忆特征:看到的东西不是一下子就从脑海里消失的。 稳定:反馈信号会引起网络输出的不断变化。我们希望这种变化逐渐减小,并且最后能消失。当变化最后消失时,网络达到了平衡状态。如果这种变化不能消失,则称该网络是不稳定的。 ;人工神经网络最具有吸引力的特点是它的学习能力。 1962年,Rosenblatt给出了人工神经网络著名的学习定理:人工神经网络可以学会它可以表达的任何东西。 人工神经网络的表达能力大大地限制了它的学习能力。 人工神经网络的学习过程就是对它的训练过程;无导师学习(Unsupervised Learning)与无导师训练(Unsupervised Training)相对应 抽取样本集合中蕴含的统计特性,并以神经元之间的联接权的形式存于网络中。;有导师学习(Supervised Learning)与有导师训练(Supervised Training)相对应。 输入向量与其对应的输出向量构成一训练。 有导师学习的训练算法的主要步骤包括: 1)? 从样本集合中取一个样本(Ai,Bi); 2)? 计算出网络的实际输出O; 3)? 求D=Bi-O; 4)? 根据D调整权矩阵W; 5) 对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。 ;Widrow和Hoff的写法: Wij(t+1)=Wij(t)+α(yj- aj(t))oi(t)

文档评论(0)

118zhuanqian + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档