西南大学2016年12月 1085 智能控制.doc

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
西南大学2016年12月1085智能控制解读

西南大学网络与继续教育学院课程考试试题卷 类别: 网教 专业:电气工程及其自动化 2016 年12月 课程名称【编号】: 智能控制 【1085】 A卷 大作业 满分:100 分 一、试分析有导师学习和无导师学习算法的不同之处,并分别举例说明。(20分) 答:目前神经网络的学习算法有多种,按有无导师分类,可分为有导师学习(Supervised Learning)、无导师学习(Unsupervised Learning)和再励学习(Reinforcement Learning)等几大类。 在有导师的学习方式中,网络的输出和期望的输出(即导师信号)进行比较,然后根据两者之间的差异调整网络的权值,最终使差异变小。 在无导师的学习方式中,输入模式进入网络后,网络按照一预先设定的规则(如竞争规则)自动调整权值,使网络最终具有模式分类等功能。再励学习是介于上述两者之间的一种学习方式。 图 有导师指导的神经网络学习 图 无导师指导的神经网络学习 最基本的神经网络学习算法: 1、Hebb学习规则 Hebb学习规则是一种联想式学习算法。生物学家D.O.Hebbian基于对生物学和心理学的研究,认为两个神经元同时处于激发状态时,它们之间的连接强度将得到加强,这一论述的数学描述被称为Hebb学习规则,即 其中,为连接从神经元 到神经元 的当前权值, 和 为神经元的激活水平。 Hebb学习规则是一种无导师的学习方法,它只根据神经元连接间的激活水平改变权值,因此,这种方法又称为相关学习或并联学习。 2、 Delta(δ)学习规则 假设误差准则函数为: 其中,代表期望的输出(导师信号),为网络的实际输出, 为网络所有权值组成的向量,即 为输入模式: 其中训练样本数为。 神经网络学习的目的是通过调整权值W,使误差准则函数最小。权值的调整采用梯度下降法来实现,其基本思想是沿着E的负梯度方向不断修正W值,直到E达到最小。数学表达式为: 二、遗传算法有哪些基本运行参数,其值一般设为多少?(20分) 基本遗传算法的运行参数 有下述4个运行参数需要提前设定: 三、专家系统与专家控制有何区别?(20分) 答:专家控制引入了专家系统的思想,但与专家系统存在区别: (1)专家系统能完成专门领域的功能,辅助用户决策;专家控制能进行独立的、实时的自动决策。专家控制比专家系统对可靠性和抗干扰性有着更高的要求。 (2)专家系统处于离线工作方式,而专家控制要求在线获取反馈信息,即要求在线工作方式。 四、请举例说明有哪些典型的神经网路?(20分) 答:(1)单神经元网络 单神经元模型 图1中为神经元的内部状态,为阈值,为输入信号, , 为表示从单元 到单元 的连接权系数,为外部输入信号 图1 单神经元模型 单神经元模型可描述为: 通常情况下,取 即 (2)BP神经网络 1986年,Rumelhart等提出了误差反向传播神经网络,简称BP网络(Back Propagation),该网络是一种单向传播的多层前向网络。 误差反向传播的BP算法简称BP算法,其基本思想是梯度下降法。它采用梯度有哪些信誉好的足球投注网站技术,以期使网络的实际输出值与期望输出值的误差均方值为最小。 BP网络特点 (1)是一种多层网络,包括输入层、隐含层和输出层; (2)层与层之间采用全互连方式,同一层神经元之间不连接; (3)权值通过δ学习算法进行调节; (4)神经元激发函数为S函数; (5)学习算法由正向传播和反向传播组成; (6)层与层的连接是单向的,信息的传播是双向的。 BP网络结构 (3)BP网络逼近仿真实例 仿真实例 使用BP网络逼近对象 采样时间取1ms,输入信号为 ,神经网络采用2—6—1结构,权值W1,W2的初始值取[-1,+1]之间的随机值,取。BP网路逼近程序如下: %BP identification clear all; close all; xite=0.50; alfa=0.05; w2=rands(6,1); w2_1=w2;w2_2=w2_1; w1=rands(2,6); w1_1=w1;w1_2=w1; dw1=0*w1; x=[0,0]; 输入 u_1=0; y_1=0; I=[0,0,0,0,0,0]; 定义隐层的6个节点的输入 Iout=[0,0,0,0,0,0]; 定义隐层的6各节点的输出 FI=[0,0,0,0,0,0

文档评论(0)

dajuhyy + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档