- 1、本文档共7页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
西南大学2016年12月1085智能控制解读
西南大学网络与继续教育学院课程考试试题卷
类别: 网教 专业:电气工程及其自动化 2016 年12月
课程名称【编号】: 智能控制 【1085】 A卷
大作业 满分:100 分
一、试分析有导师学习和无导师学习算法的不同之处,并分别举例说明。(20分)
答:目前神经网络的学习算法有多种,按有无导师分类,可分为有导师学习(Supervised Learning)、无导师学习(Unsupervised Learning)和再励学习(Reinforcement Learning)等几大类。
在有导师的学习方式中,网络的输出和期望的输出(即导师信号)进行比较,然后根据两者之间的差异调整网络的权值,最终使差异变小。
在无导师的学习方式中,输入模式进入网络后,网络按照一预先设定的规则(如竞争规则)自动调整权值,使网络最终具有模式分类等功能。再励学习是介于上述两者之间的一种学习方式。
图 有导师指导的神经网络学习
图 无导师指导的神经网络学习
最基本的神经网络学习算法:
1、Hebb学习规则
Hebb学习规则是一种联想式学习算法。生物学家D.O.Hebbian基于对生物学和心理学的研究,认为两个神经元同时处于激发状态时,它们之间的连接强度将得到加强,这一论述的数学描述被称为Hebb学习规则,即
其中,为连接从神经元 到神经元 的当前权值, 和 为神经元的激活水平。
Hebb学习规则是一种无导师的学习方法,它只根据神经元连接间的激活水平改变权值,因此,这种方法又称为相关学习或并联学习。
2、 Delta(δ)学习规则
假设误差准则函数为:
其中,代表期望的输出(导师信号),为网络的实际输出,
为网络所有权值组成的向量,即
为输入模式:
其中训练样本数为。
神经网络学习的目的是通过调整权值W,使误差准则函数最小。权值的调整采用梯度下降法来实现,其基本思想是沿着E的负梯度方向不断修正W值,直到E达到最小。数学表达式为:
二、遗传算法有哪些基本运行参数,其值一般设为多少?(20分)
基本遗传算法的运行参数
有下述4个运行参数需要提前设定:
三、专家系统与专家控制有何区别?(20分)
答:专家控制引入了专家系统的思想,但与专家系统存在区别:
(1)专家系统能完成专门领域的功能,辅助用户决策;专家控制能进行独立的、实时的自动决策。专家控制比专家系统对可靠性和抗干扰性有着更高的要求。
(2)专家系统处于离线工作方式,而专家控制要求在线获取反馈信息,即要求在线工作方式。
四、请举例说明有哪些典型的神经网路?(20分)
答:(1)单神经元网络
单神经元模型
图1中为神经元的内部状态,为阈值,为输入信号, , 为表示从单元 到单元 的连接权系数,为外部输入信号
图1 单神经元模型
单神经元模型可描述为:
通常情况下,取
即
(2)BP神经网络
1986年,Rumelhart等提出了误差反向传播神经网络,简称BP网络(Back Propagation),该网络是一种单向传播的多层前向网络。
误差反向传播的BP算法简称BP算法,其基本思想是梯度下降法。它采用梯度有哪些信誉好的足球投注网站技术,以期使网络的实际输出值与期望输出值的误差均方值为最小。
BP网络特点
(1)是一种多层网络,包括输入层、隐含层和输出层;
(2)层与层之间采用全互连方式,同一层神经元之间不连接;
(3)权值通过δ学习算法进行调节;
(4)神经元激发函数为S函数;
(5)学习算法由正向传播和反向传播组成;
(6)层与层的连接是单向的,信息的传播是双向的。
BP网络结构
(3)BP网络逼近仿真实例
仿真实例
使用BP网络逼近对象
采样时间取1ms,输入信号为 ,神经网络采用2—6—1结构,权值W1,W2的初始值取[-1,+1]之间的随机值,取。BP网路逼近程序如下:
%BP identification
clear all;
close all;
xite=0.50;
alfa=0.05;
w2=rands(6,1);
w2_1=w2;w2_2=w2_1;
w1=rands(2,6);
w1_1=w1;w1_2=w1;
dw1=0*w1;
x=[0,0]; 输入
u_1=0;
y_1=0;
I=[0,0,0,0,0,0]; 定义隐层的6个节点的输入
Iout=[0,0,0,0,0,0]; 定义隐层的6各节点的输出
FI=[0,0,0,0,0,0
文档评论(0)