人工神经网络自组织竞争人工神经网络宣教讲义.ppt

人工神经网络自组织竞争人工神经网络宣教讲义.ppt

  1. 1、本文档共42页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
人工神经网络自组织竞争人工神经网络宣教;在实际的神经网络中,比如人的视网膜中,存在着一种“侧抑制”现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制。 自组织竞争人工神经网络正是基于上述生物结构和现象形成的。它能够对输入模式进行自组织训练和判断,并将其最终分为不同的类型。 与BP网络相比,这种自组织自适应的学习能力进一步拓宽了人工神经网络在模式识别、分类方面的应用,另一方面,竞争学习网络的核心——竞争层,又是许多种其他神经网络模型的重要组成部分。;8.1几种联想学习规则 ;图8.1 格劳斯贝格内星模型图 ;图8.2 格劳斯贝格外星模型图 ;8.1.1内星学习规则 实现内星输入/输出转换的激活函数是硬限制函数。 可以通过内星及其学习规则来训练某一神经元节点只响应特定的输入矢量P,它是借助于调节网络权矢量W近似于输入矢量P来实现的。;现在来考虑当不同的输入矢量p1和p2分别出现在同一内星时的情况。 首先,为了训练的需要,必须将每一输入矢量都进行单位归一化处理。 当第一个矢量p1输入给内星后,网络经过训练,最终达到W=(p1)T。此后,给内星输入另一个输入矢量p2,此时内星的加权输入和为新矢量p2与已学习过矢量p1的点积,即: ;根据不同的情况,内星的加权输入和可分为如下几种情况: 1) p2等于p1,即有θ12=0,此时,内星加权输入和为1; 2) p2不等于p1,内星加权输入和为0; 3)当p2=-p1,即θ12=180°时,内星加权输入和达到最小值-1。 由此可见,对于一个已训练过的内星网络,当输入端再次出现该学习过的输入矢量时,内星产生1的加权输入和;而与学习过的矢量不相同的输入出现时,所产生的加权输入和总是小于1。 当多个相似输入矢量输入内星,最终的训练结果是使网络的权矢量趋向于相似输入矢量的平均值。 ;内星网络中的相似度是由偏差b来控制,由设计者在训练前选定,典型的相似度值为b=-0.95,这意味着输入矢量与权矢量之间的夹角小于18°48’。若选b=-0.9时,则其夹角扩大为25°48’。;[例8.1] 设计内星网络进行以下矢量的分类辨识:;8.1.2外星学习规则 外星网络的激活函数是线性函数,它被用来学习回忆一个矢量,其网络输入P也可以是另一个神经元模型的输出。 外星被训练用来在一层s个线性神经元的输出端产生一个特别的矢量A。 对于一个外星,其学习规则为: ;当有r个外星相并联,每个外星与s个线性神经元相连组成一层外星时,其权值修正方式为:;思考:下面有两元素的输入矢量以及与它们相关的四元素目标矢量,试设计一个外星网络实现有效的矢量的获得,外星没有偏差。 P=[1 0]; T=[0.1826 0.6325; 0.3651 0.3162; 0.5477 0.3162; 0.7303 0.6325];;8.1.3科荷伦(Kohonen)学习规则 科荷伦学习规则是由内星规则发展而来的。 科荷伦规则为:;在MATLAB工具箱中,在调用科荷伦学习规则函数learnk.m时,一般通过先寻找输出为1的行矢量i,然后仅对与i相连的权矩阵进行修正。使用方法如下: ;;8.2自组织竞争网络 ;从网络的结构图中可以看出,自组织竞争网络的权值有两类: 一类是输入节点j到i的权值wij(i=1,2…、s;j=1,2…、r),这些权值是通过训练可以被调整的; 另一类是竞争层中互相抑制的权值wik(k=1,2…、s)。这类权值是固定不变的,且它满足一定的分布关系。 它们是一种对称权值,即有wik=wki,同时相同神经元之间的权值起加强的作用,即满足w11=w11=…=wkk>0,而不同神经元之间的权值相互抑制,对于k≠i有wik<0。 ;设网络的输入矢量为:P=[ p1 p2 … pr]T; 对应网络的输出矢量为:A=[a1 a2 … as]T。 由于竞争网络中含有两种权值,所以其激活函数的加权输入和也分为两部分:来自输入节点的加权输入和N与来自竞争层内互相抑制的加权输入和G。对于第i个神经元有: 1)来自输入节点的加权输入和为: ;a)如果在竞争后,第i个节点“赢”了,则有:;所以对整个网络的加权输入总和有下式成立: sl=nl+wll 对于“赢”的节点l si=ni-|wii| 对于所有”输“的节点i=1,2…s,i≠l 由此可以看出,经过竞争后只有获胜的那个节点的加权输入总和为最大。竞争网络的输出为: ;取偏差B为零是判定竞争网络获胜节点时的典型情况,偶而也采用下式进行竞争结果的判定:;n=W*P; [S,Q]=size(n); x=n+b*ones(1,Q); y=max(x); for q=1:Q %找出最大加权输入和y(q)所在的行; s=f

文档评论(0)

173****6081 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档