基于遗传神经网络的倒立摆控制研究(txt+pdf+epub+mobi电子书下载)


发布时间:2021-03-01 10:32:27

点击下载

作者:黄孝平

出版社:重庆大学出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

基于遗传神经网络的倒立摆控制研究

基于遗传神经网络的倒立摆控制研究试读:

前言

倒立摆的控制是控制理论应用的一个典型范例。倒立摆系统作为一个非最小相位、强耦合、多变量的绝对不稳定非线性系统,通常被用来检验控制策略的有效性;同时,由于倒立摆系统控制与火箭和飞行器控制以及起重机起重臂控制等的相似性,对其进行控制所采用的控制算法,以及得出的结论对其他工程控制问题具有一定指导意义。

当前,遗传算法和神经网络以及二者的结合研究都是智能控制技术研究中的热点。神经网络能够充分逼近任意复杂的非线性关系,能够学习不确定性系统的动态特性,用神经网络设计的控制系统,适应性、鲁棒性均较好,能够处理高维数、非线性、强干扰、不确定、难建模的复杂控制问题。而遗传算法是一种具有极高鲁棒性和广泛适用性的全局优化方法,采用遗传算法学习的神经网络控制器兼有神经网络的广泛映射能力和遗传算法快速收敛以及增强式学习等性能。

本研究将神经网络和遗传算法结合起来,对一、二、三级倒立摆装置进行仿真和智能控制研究,主要内容包括:

推导出了一、二、三级倒立摆系统的非线性数学模型,并用基于遗传神经网络的智能控制方法对倒立摆系统进行了仿真;设计了反向传播算法神经网络控制器,对倒立摆控制效果较好,解决了用常规控制方法存在的控制范围小,控制精度低的问题;改进遗传算法的神经网络控制器的设计,解决了BP 算法收敛速度慢的问题,避免BP 算法易陷入局部极小的缺点;提出了面向神经网络的遗传算法(NNOGA),详细论述了该算法的实现,克服了简单遗传算法搜索速度慢、不成熟收敛和迭代次数多的缺点。2014年3月第1章绪论1.1引言

倒立摆系统的控制是控制理论应用的一个典型范例。倒立摆系统结构简单、成本较低,便于用模拟或数字的方法进行控制。虽然其结构形式多种多样,但无论何种结构,就其本身而言,都是一个非最小相位、多变量、绝对不稳定的非线性系统。由于倒立摆系统的绝对不稳定,必须选用有效的方法稳定它。其控制方法在军工、航天、机器人和一般工业过程领域中都有着广泛的用途,如机器人行走过程中的平衡控制、火箭发射中的垂直度控制和卫星飞行中的姿态控制等均涉及倒置问题。同时,由于摩擦力的存在,该系统具有一定的不确定性。对这样一个复杂系统的研究,从理论上将涉及系统控制中的很多关键问题:如非线性问题、鲁棒性问题、镇定问题、随动问题以及跟踪问题等。

对倒立摆系统的控制研究引起国内外学者广泛关注的原因不仅仅在于以上因素。新的控制方法的不断出现,人们试图通过倒立摆这样一个严格的控制对象,检验新的控制方法是否有较强的处理多变量、非线性和绝对不稳定性的能力。也就是说,倒立摆系统控制作为控制理论研究中的一种较为理想的实验手段通常用来检验控制策略的有效性。

随着控制理论的不断向前发展,越来越多的非线性控制理论被成功运用于倒立摆系统的控制,如逆系统方法、神经网络(Neural ∞Network, NN)方法、H控制方法等。其中,人工神经网络(Artificial Neural Network, ANN)以其独特的优点在控制界得到迅猛发展,由于ANN 能够充分逼近任意复杂的非线性关系和能够学习严重不确定性系统的动态特性,这些特点显示了ANN在解决高度非线性和严重不确定性系统的控制方面的巨大潜力,非线性问题的研究成了NN理论发展的一个最大动力,同时也成了NN所面临的最大挑战。然而,NN 也有许多亟待完善之处, NN的学习速度一般比较慢,为满足实时要求,必须加以改进。

该书采用人工智能中另一迅速发展的分支——遗传算法(Genetic Algorithm, GA)与NN相结合的算法。GA是一种较成熟的具有极高鲁棒性和广泛适用性的全局优化方法。标准遗传算法[或简单遗传算法(Simple Genetic Algorithms, SGA)]有搜索速度慢、不成熟收敛和迭代次数多等缺点,因而需要采用高级遗传算法[改进遗传算法(Improved Genetic Algorithms, IGA)]。

由于GA不受问题性质(如连续性、可微性)的限制,能够处理传统优化算法难以解决的复杂问题等优点,显示了它在控制系统优化方面的巨大潜力,因而引起了控制领域的极大关注。近年来,在自动控制领域,GA在PID控制、线性和非线性、最优、鲁棒、自适应、滑模、模糊逻辑、神经网2络、参数估计和系统辨识、模型线性化和控制器降阶、机器人手臂控制和轨迹规划等方面得到了广泛地应用。

因此,研究遗传神经网络有重要的理论和工程实际意义。该书采用基于神经网络的遗传算法来对典型非线性实际对象倒立摆进行控制,并给出了仿真和实验结果。1.2智能控制理论概述

回顾控制理论的发展历程可以看到,自动控制理论的发展一直受到以下3个方面需求的推动,即

①处理日渐复杂的控制对象;

②完成日渐复杂的设计要求;

③甚至在对象和环境知识所知甚少的情况下达到上述要求。

从离心机构、火炮控制、工业过程控制到航空、航天事业的发展,再到社会经济系统的控制与决策,所面临的控制对象越来越复杂,人们对控制系统性能的要求也越来越高,而控制理论也从处理线性、确定性模型的经典控制理论、现代控制理论、发展到了能够处理非线性、非确定性模型的非线性控制理论以及智能控制理论。这些分支的诞生为控制系统的设计提供了新的方法,同时又刺激人类提出更复杂的设计要求,进一步推动了理论的发展。

近年来,越来越多的学者已意识到在传统控制中加入逻辑、推理和启发式知识的重要性,这类系统一般称为智能控制系统。

智能控制理论是控制理论发展的高级阶段,它是人工智能的发展应用于控制过程的直接结果。目前,它主要用来解决那些用传统方法难以解决的复杂系统的控制问题,主要是不确定性问题,高度的非线性系统的控制等。其中包括智能机器人系统、计算机集成制造系统(CIMS)、复杂的工业过程控制系统、航天航空控制系统、社会经济管理系统、交通运输系统、环保及能源系统等。

目前有关智能控制的定义、理论、结构等尚无系统的描述,IEEE控制系统协会将“智能控制”归纳为智能控制系统必须具有模[11]拟人类学习和自适应的能力。智能控制可以分为以下几个范畴:

①就是试图弄清人类智能的机理,希望通过模拟人脑的结构来产生人类所特有的智能,即基于联结主义的人工神经网络(简称神经网络)。它本质上是一个非线性的动力学系统,通过大量的简单关系来实现复杂的功能,比如自学习功能等。因此,常常利用神经网络实现自适应控制,此外,也可以用它来对控制规则进行学习。但是,由于神经网络要进行大量的并行计算,传统的串行的冯·诺依曼机器无法胜任,而制造专门的神经网络芯片又因为缺乏一个通用的结构而极不经济,因此,目前神经网络无法应用于大型复杂系统的控制。

②就是对于特定的系统,利用工程的方法将专家常年积累的知识和经验提取出来,然后用计算机将专家的控制策略推广到同一类其他系统上,即基于符号主义的人工智能专家系统理论。比较成熟的有G.N.萨里迪斯提出的分层递阶控制理论,用来解决复杂控制问题;K.J.奥斯特洛姆1986年提出的专家控制理论,它将专家系统技术同传统的控制方法结合起来;在L.A.Zadeh提出的模糊数学基础上产生的模糊控制理论,则将模糊决策和模糊推理的技术引入控制理论,目前已被工业界大量采用。

1994年8月,北京航空航天大学张明廉教授、沈程智教授领导的人工智能小组,突破传统控制理论的模式,使三级倒立摆率先在我国的实验室里稳定地立起来。该项目所提出的基于归约法和定性动态推理“拟人4智能控制理论”框架,在控制方法上有新的突破,能较好地解决以三级倒立摆为典型的一类复杂被控对象的控制问题。这一突破性的成果,将为飞行器、工业控制及各种复杂条件下的控制提供新的构想,也将预示着复杂的控制理论可能产生重大变革。

2005年7月,李洪兴教授采用高维变论域自适应控制理论,在世界上第一个成功实现了平面运动三级倒立摆实物系统控制。这一类方法完全可以用传统冯·诺依曼机器来实现,如果知识提取得好,则设计出来的控制器往往结构简单,且性能良好,但是知识的提取目前还缺乏一个有效、通用的方法,对于不同的系统,需要有不同的与系统本身特性紧密相关的精细考虑。

③还存在着基于进化论的人工生命,只是由于其还处于发展的早期阶段,理论上很不成熟,实践中的独立运用较少。1.3神经网络理论概述

神经网络控制作为智能控制的一个新的分支,它为解决复杂的非线性、不确定、不确知系统的控制问题开辟了一条新的途径。从1943年心理学家McCulloch和数学家Pits提出第一个神经元模型——MP 模型以及Hebb提出的神经元连接强度的修改规则,从此开创了神经网络理论研究的时代。神经网络的发展史,概括起来经历了3个阶段:20世纪40—60年代的发展初期;70年代的研究低潮期;80年代,神经网络的理论研究取得了突破性进展。神经网络能过模拟人脑细胞的分布式工作特点和自组织功能实现并行处理、自学习和非线性映射[32]等功能。对神经网络的研究,目前主要表现在以下几个方面:

①探索人脑神经系统的生物结构和机制;

②将神经网络理论作为一种解决某些总是的手段和方法;

③能学习和适应严重不确定性系统的动态特性;

④由于大量神经元之间广泛连接,即使有少量单元或连接受损,也不影响统的整体功能,表现出很强的鲁棒性和容错性;

⑤采用并行分布处理方法,使得快速进行大量运算成为可能。这些特点表明神经网络在解决高度非线性和不确定性系统的控制问题方面具有很大潜力。

通常神经网络用于控制有两种用途:一是用其实现建模;另一种是直接用作控制器。[47]

其中,常见的神经网络控制有:①神经网络学习控制(监督控制);②神经网络自适应控制(自校正,模型参考直接与间接自适应控制);③神经网络内模控制;④神经网络非线性预测控制;⑤神经网络模糊控制;⑥神经网络自适应评判控制(再励控制)等。

代表性的网络模型有:BP 网络,Hopfield网络,径向基函数(RBF)网络,脑连接模型(CMAC)网络,模糊神经网络,自组织特征映射(SOM)网络,自适应谐振理论(ART)等。

常见的学习算法有:多层前馈神经网络的标准BP 算法;自适应变步长快速学习算法;二阶快速学习算法和高阶快速学习算法;轨迹学习算法和动态规划学习算法;模拟退火学习算法;Hopfield网络的不动点学习算法;多层网络的竞争学习算法等。

目前,神经网络理论的应用已经渗透到各个领域,并在智能控制、模式识别、计算机视觉、自适应滤波和信号处理、非线性优化、语音识别、传感技术与机器人、生物医学工程等方面取得了令人鼓舞的成绩,特别是近年来,神经网络理论的发展拓展了计算概念的内涵,使神经计算、进化计算成为新的学科,神经网络的软件模拟得到了广泛地应用。

尽管神经网络理论和研究以及应用都取得了可喜的进展,但由于人们对生物神经系统的研究与了解还不够,提出的神经网络的模型、结构和规模等都仅仅是对真实神经网络的一种简化和近似;此外,神经网络的理论还存在很多缺陷,因此神经网络从理论到实践的应用还[38]有一段很长的路要走。主要表现在:

从系统建模的角度而言,它采用的是典型的黑箱(Black-Box)型学习模式,当学习完成后,神经网络所获得的输入输出关系无法用被人接受的方式表达出来。

神经网络的结构选择一般凭借经验进行,如何找到一种方法能给出确定的能达到设计要求的网络结构还值得探讨。

对于不同的神经网络结构,如何选择学习算法,并无理论上的依据。

到目前为止,关于神经网络稳定性研究的成果还较少,这无疑是建立系统的神经网络理论的障碍。1.4研究内容及意义1.4.1 研究的内容

该书的研究内容主要集中在以下方面:

①前馈神经网络的设计、BP算法的研究、神经网络控制器的设计;

②在对简单遗传算法的缺陷进行分析的基础上,提出了一种有效的改进遗传算法——面向神经网络的遗传算法,用改进的遗传算法训练神经网络的权值,从而设计出遗传神经网络控制器;

③建立倒立摆的数学模型,在对一、二、三级倒立摆建模和分析的基础上,首先推导出了三级倒立摆的非线性数学模型;并用了一种线性控制方法对一、二、三级倒立摆进行了控制仿真;

④将反向传播算法神经网络控制器用于一、二、三倒立摆的控制,编程实现其控制仿真和实验;

⑤将遗传算法神经网络控制器用于倒立摆的控制,编程实现其控制仿真和实验。1.4.2 研究的意义

本研究的意义可以归纳为以下两个方面:

①当前智能控制算法的研究相当一部分仅仅是基于模型的计算机仿真,成功运用于实践的并不太多。本文以倒立摆装置为被控对象进行实时控制研究,所采用的控制算法以及得出的结论对其他工程控制问题具有一定指导意义。特别是,倒立摆系统控制与火箭飞行、飞行器和起重机起重臂等的控制问题都有一定的相似性,倒立摆系统的控制研究对这些控制问题的研究有着很大的促进作用。

②智能控制理论,特别是遗传算法、神经网络理论除了在自动控制领域有着广泛地应用以外,在很多其他领域内也有良好的应用前景,如信号处理、图像识别、机器视觉甚至经济学、社会学等。从事智能控制理论特别是神经网络理论的研究必然有助于促进这些学科的共同发展。第2章基于神经网络的智能控制2.1引言

神经网络控制作为智能控制的一个新分支,它为解决复杂的非线性、不确定、不确知系统的控制问题开辟了一条新的途径。从1943年,心理学家人工神经网络(简称神经网络,NN)理论是巨量信息并行处理和大规模平行计算的基础,神经网络既是高度非线性动力学系统,又是自适应组织系统,可用来描述认知,决策及控制人的智能行为。它的中心问题是智能的认知和模拟。从解剖学和生理学来看,人脑是一个复杂并行系统,它具有认知、意识和感情等高级脑功能。毫无疑问,以人工方法模拟这些功能,将有助于加深对思维及智能的认识。20世纪80年代初,神经网络的崛起,已对认知和智力的本质的基础研究乃至计算机产业都产生了空前的刺激和极大的推动作用。

本章将主要介绍神经网络基本理论以及一些常用的神经网络控制系统结构,为后面采用神经网络进行倒立摆系统建模和控制奠定基础。2.2神经网络结构

神经网络的基本组成单元是神经元,数学上的神经元和生物学上的神经细胞是对应的。2.2.1 人工神经元的数学模型

无论神经元的结构形式如何,它都是由一些基本成分组成的。神经元是一个多输入单输出的信息处理单元,而且它对信息的处理是非线性的,这样一来,可以把神经元抽象为一个简单的数学模型。控制[47]上常用到的神经元数学模型如图2.1所示。图2.1 人工神经元的基本数学模型ii

其中,Y为神经元的输出,θ为神经元的阈值,X为外部输入,Uii为其他神经元的输出,w和v为连接权系数,F[·]为激发函数,一般为非线性,它决定神经元受到输入的共同刺激达到阈值时以何种方式输出,这样神经元的数学模型的表达式可以表示如下:

∑ 实现的是加权加法器的作用,用来实现一个神经细胞对接收来自四面八方信号的空间总和功能。[47]2.2.2 神经网络常用的激发函数(1)硬限幅函数

硬限幅函数不可微,类阶跃,正值。它是在其网络输入达到给定的门限时迫使其输出为1,否则输出为0,这就是使神经元可以作为判决或分类,它可以给出“是”或“否”的结果,这种神经元通常利用感知器学习规则来训练。函数的表达式为:(2)对称硬限幅函数

对称硬限幅函数不可微,类阶跃,零菌值。它是在其网络输入达到给定的门限时迫使其输出为1,否则输出为-1,它下硬限幅函数非常相似,只是输出值不同。函数的表达式为:(3)对数S型(Sigmoid)特性函数

对数S型函数用于将神经元的输入范围(-∞, +∞)映射到(0,1),对数S型函数是可微函数,因此,非常适合于利用BP 训练的神经元。函数的表达式为:

这类特性函数常用来表示输入输出的S 形曲线关系,反映神经元“压缩”或“饱和”特性,即把神经元定义为具有非线性增益特性的电子系统,用它来解决噪音饱和问题。当输入弱小信号时,仍要求产生有效的输出信号,网络要有高增益;但如在强大信号时,仍产生高增益,将放大噪音输出或使强大信号本身引起饱和,又将消除任何有效的输出。S 形特性函数具有中间高增益区,适应弱小信号,两端低增益区适应强大信号的性能。(4)双曲正切S型函数

它用于将神经元的输入范围(-∞, +∞)映射到(0,1),是可微函数,因此,也非常适合于利用BP训练的神经元。函数的表达式为:

常用双曲正切函数来取代常规S型函数,因为S型函数的输出均为正值,而双曲正切函数的输出值则可正可负,此函数常被生物学家用作描述生物神经元活动的数学模型。双曲正切函数可表达如下:图2.2 神经元的特性函数(5)径向函数

它主要用于径向基网络中,函数的数学表达式为:其中b为阈值。(6)饱和线性函数

饱和线性函数在网络输入x∈[-1,1],它只是简单地将神经元的输入经阈值调整后传递到输出,其函数的数学表达式为:2.2.3 神经网络的基本特性

神经网络由神经元模型构成:这种由很多神经元组成的信息处理网络具有并行分布结构。每个神经元具有单一输出,并且能够与其他神经元连接;存在很多(多重)输出连接方法,每种连接方法对应一个连接权系数。神经网络是一种具有下列特性的有向图:i

①对于每个节点i存在一个状态变量x;ij

②从节点j至节点i存在一个连接权系数w;i

③对于每个节点i,存在一个阈值θ;ijijii

④对每个节点i,定义一个变换函数f(x, w, θ), i≠j,取f(ijjiwx-j θ)形式。[47]2.2.4 神经网络的基本结构(1)前馈网络

前馈网络具有递阶分层结构,由一些同层神经元间不存在互连的层级组成。从输入层至输出层的信号通过单向连接流通;神经元从一层连接至下一层,不存在同层神经元间的连接,在图2.3中,实线指明实际信号流通而虚线表示反向传播。前馈网络有多层感知器(MLP)、学习矢量量化(LVQ)网络、小脑模型连接控制(CMAC)网络和数据处理方法(GMDH)网络等。图2.3 前馈网络(2)递归网络

在递归网络中,多个神经元互连以组织一个互连神经网络,如图2.4所示。有些神经元的输出被反馈至同层或前层神经元。因此,信号能够从正向和反向流通。Hopfield网络、Elmman网络和Jordan网络i是递归网络有代表性的例子。递归网络又称为反馈网络。图2.4中的vi表示节点的状态,x为节点的输入(初始)值,x′i(i=1,2,3, …, n)为收敛后的输出值。图2.4 反馈网络2.3神经网络的学习算法2.3.1 学习方式和学习规则

在神经网络中,修改权值的规则过程称为学习过程,也就是说神经网络的权值并非固定不变的;相反,这些权值可以根据经验或学习来改变。学习是神经网络的最重要的特征之一,神经网络能够通过训练、改变其内部表征,使输入输出间变换朝好的方向发展,以完成特定的任务。

神经网络的学习过程就是不断调整网络的连接数值,以获取期望输出。神经网络的学习方法多种多样,下面介绍常用的神经网络的学习方式和学习规则。(1)神经网络的学习方式

神经网络用3种学习算法进行训练,即有导师的学习算法、无导师的学习算法和再励学习算法。

1)有导师的学习

有导师的学习算法能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。因此,有导师学习需要有导师来提供期望或目标输出信号。有导师学习算法的例子包括δ规则、广义δ规则或反向传播算法以及LVQ算法等。

2)无导师的学习

无导师的学习算法不需要知道期望输出。在训练过程中,只要向神经网络提供输入模式,神经网络就能够自动地适应连接权,以便按相似特征把输入模式分组聚集。无导师学习算法的例子包括Kohonen 算法和Carpenter-Grossberg自适应谐振理论(ART)等。

3)再励学习

它把学习看成为试探评价过程,学习机制选择一个输出作用于系统后,使系统的状态改变,并产生一个再励信号反馈至模型,模型根据再励信号与当前系统状态选择下一个作用于系统,输出选择的原则是使受到奖励的可能性增大。(2)神经网络的学习规则

1)Hebb学习规则(联想式学习规则、相关学习规则)

当两个神经元同时处于兴奋状态时,它们之间的连接应当加强,这就是Hebb学习规则的基本思想。几乎所有的神经网络的学习规则都可以看成是Hebb学习规则的变形,它仅仅根据连接间的激活水平改变权值系数。

2)纠错学习规则

如果节点的输出正确,则一切保持不变;

如果节点的输出本应为0,但实际输出为1,则权系数相应减少;

如果节点的输出本应为1,但实际输出为0,则权系统相应增加。

3)竞争学习规则

在竞争学习时,网络各输出单元互相竞争,最后达到只有一个最强者激活,即这是一种无导师的学习规则,其原理是“赢的神经元可以最大限度地调整它的权系统”。最常见的一种情况是输出神经元之间有侧向抑制性连接,这样原有输出单元中如有某一单元较强,则它将获胜并抑制其他单元,最后只有此强者处于激活状态。

4)学习与自适应学习规则

当学习系统所处环境平稳时,从理论上讲通过监督学习可以学到环境的统计特性,这些统计特性可以被学习系统作为经验记住。如果环境是非平衡的,通常的监督学习没有能力跟踪这种变化。为解决此问题,需要网络有一定的自适应能力,此时对每一不同输入都作为一个新的例子来对待,其工作过程如图2.5所示。图2.5 学习与自适应学习规则系统框图2.3.2 BP网络学习算法

在众多的神经网络结构中,多层前馈神经网络(Mufti-Layer Feedforward Neural Network,简称MFNN)是目前应用最广泛也是最成熟的一种网络结构。由于在MFNN中,网络权值的调整通过误差反传学习算法进行。因此,MFNN通常也被称为BP(Back-Propagation)网络。

BP网络可看成是一个从输入到输出的高度非线性映射(Kolmogorov定理)。从结构上看,BP 网络是典型的多层网络,它分为输入层、隐层和输出层。在图2.3中,假设该图是一个m层网络,第一层为输入层,第m层为输出层,中间各层为隐层,层与层之间多采用互联方式。各个神经元的输入输出关系函数是f[·],输入u的各分量构成了第i层的神经元的输入,这一层的输出可以直接等于其输入。

隐层第j个神经元的输入为:

BP学习算法是通过反向学习过程使误差最小,在神经网络的学p习阶段,给定模式u作为网络的输入,要求网络通过调整权值,使得p输出层上得到理想的输出值t。一般来说,网络的训练并非总能成功,pkpk也就是说,网络的实际输出o与目标输出t并不完全一致,因此,可以选择目标函数为:

为表示方便,常将下标p省略。kk

也就是选择神经网络权值使期望输出t与实际输出o之差的平方和最小。它实际上是求误差函数J的极小值。可以利用非线性规划中的“快速下降法”使权值沿误差函数的梯度方向改变,因此权值的修正量为:

式中 ε——学习步长,在[0,1]取值。k

因为误差J为输出o的表达式,输出又是第k个神经元输入的非线性变换,所以采用通过链式法则可以得到:

由式(2.10)得:

令k,则有:kjkj

Δw=εδok

采用链式法则将δ表示为两部分,一部分是误差对于输出的变化率,另一部分表示为第k个神经元输出关于输入的变化率,表示为:

对于任意输出层的神经元k,都有:

如果权系统不直接作用于输出层神经元,情况就有所不同。对于隐层,计算权值的变化量:

由于不能直接求得,通过间接变量对它进行计算:

也就是说,内层神经元的δ值可以由上一层的δ值来计算。于从k最高层输出层开始计算δ值,然后将“误差”反传到较低的网络层,所以对于隐层的权值变化表示如下:j

在许多情况下要求每个神经元提供一个可训练的偏移量θ,它可以便置原来的特性曲线,其效果等效于调节神经元的阈值,从而训练速度更快。这一特征可以很容易地插到训练算法中去,把+1通过一个权值向每一个神经元,这个权可以采用和其他权相同的办法训练,不同的是偏移项输入始终为+1,而其他权的输入是前一层神经网络的输出。此外,从以上的分析可以看出,求j层的误差信号,需要上一层的误差信号,因此,误差函数的求取是一个始于输出层的反向传播的递归过程,通过多个样本的学习,修改权值,不断减少偏差,最后达到满意的效果。

BP网络能实现输入输出的非线性映射关系,但它并不依赖于模型。其输入输出之间的关联信息分布于各连接权中。由于连接权个数很多,个别神经元的损坏不会对输入输出关系产生太大的影响,因此,BP 网络具有较好的容错性。2.4神经网络控制的基本结构

因神经网络能对变化的环境具有自适应性,而且成为基本上不依赖于模型的一类控制,神经网络控制已经成为智能控制的一个新的分支,它在控制中的作用分为以下几种。

①在基于精确模型的各种控制结构中充当对象的模型;

②在反馈控制系统中直接充当控制器;

③在传统控制系统中起优化计算作用;

④在与其他智能控制方法和优化算法的融合中,为其提供非参数化对象模型、优化参数、推理模型及故障诊断等。

根据神经网络在控制器中的作用不同,在控制系统设计中的应用一般分为两类:一类是神经控制,它是以神经网络为基础而形成的独立智能控制系统;另一类称为混合神经网络控制,它是利用神经网络学习和优化能力来改善其他控制方法的控制。目前常用的有以下几种神经网络控制方式。2.5神经网络控制系统结构

由于分类方法的不同,神经控制器的结构也就有所不同。本节将简要介绍神经网络控制系统典型的结构方案,包括NN 学习控制、NN 直接逆控制和NN自适应控制。2.5.1 NN学习控制

由于受控系统的动态特性是未知的或者仅有部分是已知的,因此,需要寻找某些支配系统动作和行为的规律,使得系统能被有效地控制。在有些情况下,需要设计一种能够模仿人类行为的自动控制器。如基于神经网络的学习控制、监督式神经控制,或NN监督式控制。

一个NN学习控制的结构如图2.6所示,图中包括一个导师(监督程序)和一个可训练的神经网络控制器(NNC)。控制器的输入对应于由人接收(收集)的传感输入信息,而用于训练的输出对应于人对系统的控制输入。图2.6 基于神经网络的监督控制

实现NN监督式控制的步骤如下:

①通过传感器和传感信息处理,调用必要的和有用的控制信息;

②构造神经网络,选择NN类型、结构参数和学习算法等;

③训练NN控制器,实现输入和输出间的映射,以便进行正确的控制。在训练过程中,可采用线性律、反馈线性化或解祸变换的非线性反馈作为导师(监督程序)来训练NN 控制器。NN 监督式控制已被用于标准的倒立摆小车控制系统。2.5.2 NN直接逆模型控制

NN直接逆控制采用受控系统的一个逆模型,它与受控系统串接以便使系统在期望响应(网络输入)与受控系统输出间得到一个相同的映射。因此,该网络(NN)直接作为前馈控制器,而且受控系统的输出等于期望输出。本控制方案已用于机器人控制,即在Miller开发的CMAC网络中应用直接逆控制来提高PUMA机器人操作手(机械手)的跟踪精度。这种方法在很大程度上依赖于作为控制器的逆模型的精确程度。由于不存在反馈,鲁棒性不足。逆模型参数可通过在线学习调整,以期把受控系统的鲁棒性提高至一定程度。

图2.7给出NN 直接逆控制的两种结构方案。在图2.7(a)中,网络NN1和NN2具有相同的逆模型网络结构,而且采用同样的学习算法。图2.7(b)为NN 直接逆控制的另一种结构方案,图中采用一个评价函数(EF)。图2.7 NN直接逆模型控制2.5.3 NN自适应控制

NN自适应控制分为两类:即自校正控制(STC)和模型参考自适应控制(MRAC)。STC和MRAC之间的差别在于:STC根据受控系统的正/逆模型辨识结果直接调节控制器的内部参数,以期能够满足系统的给定性能指标;在MRAC中,闭环控制系统的期望性能是由一个稳定的参考模型描述的,而该模型又是由输入一输出对{r(t), ry(t)}确定的。本控制系统的目标在于使受控装置的输入y(t)与参考模型的输出渐近地匹配,即式中 δ——指定常数。(1)NN自校正控制(STC)

基于NN的STC有两种类型:直接STC和间接STC。

1)NN直接自校正控制

该控制系统由一个常规控制器和一个具有离线辨识能力的识别器组成;后者具有很高的建模精度。NN 直接自校正控制的结构基本上与直接逆控制相同。

2)NN间接自校正控制

本控制系统由一个NN控制器和一个能够在线修正的NN解决器组成。NN间接STC的结构如图2.8所示。图2.8 NN间接自校正控制

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载