神经·模糊·预测控制及其MATLAB实现(第4版)(txt+pdf+epub+mobi电子书下载)


发布时间:2020-07-12 15:21:41

点击下载

作者:李国勇,杨丽娟

出版社:电子工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

神经·模糊·预测控制及其MATLAB实现(第4版)

神经·模糊·预测控制及其MATLAB实现(第4版)试读:

内容简介

本书系统地论述了神经网络控制、模糊逻辑控制和模型预测控制的基本概念、工作原理、控制算法,以及利用MATLAB语言、MATLAB工具箱函数和Simulink对其实现的方法。本书取材先进实用,讲解深入浅出,各章均有相应的例题,并提供了大量用 MATLAB/Simulink 实现的仿真实例,便于读者掌握和巩固所学知识。

本书可作为高等院校自动化、电气工程及其自动化、电子科学与技术、计算机科学与技术、测控技术与仪器、交通设备与控制工程、轨道交通信号与控制、机械设计制造及其自动化和机械电子工程等专业研究生和高年级本科生的教材,也可作为从事智能控制与智能系统研究、设计和应用的科学技术人员的参考用书。

本书还有配套的教学课件,可登录电子工业出版社的华信资源教育网www.hxedu.com.cn免费下载。

第4版前言

本书自2005年5月第一版、2010年1月和2013年5月的两次再版以来,得到广大读者的关心和支持,先后多次重印,被国内多所大学选为教材。

这次修订在保持前三版内容系统,实用、易读的特点,以及框架结构基本不变的基础上,主要修改了第 1 章和第 4 章的内容,并充分考虑了新形势下智能控制类课程教学及不同层次院校的选学需要,体现宽口径专业教育思想,反映先进的技术水平,强调教学实践的重要性,有利于学生自主学习和动手实践能力的培养,适应卓越工程师人才培养的要求,同时也满足多学科交叉背景学生的教学需求。

本书是本着把当前国际控制界最为流行的面向工程与科学计算的高级语言——MATLAB 与神经网络、模糊逻辑和预测控制相结合的宗旨编写的。书中主要从三个方面阐述利用 MATLAB对神经网络、模糊逻辑和模型预测控制系统的计算机仿真方法。其中,第一种方法为采用MATLAB 语言根据具体的控制算法编程进行仿真;第二种方法为利用 MATLAB 提供的神经网络、模糊逻辑和预测控制工具箱函数或图形用户界面直接进行仿真;第三种方法为根据 Simulink动态仿真环境进行仿真。比较以上三种方法,第二种方法最为简单,它不需要了解算法的本质,就可以直接应用功能丰富的函数来实现自己的目的;第三种方法最为直观,它可以在运行仿真时观察仿真结果;第一种方法最为复杂,它需要根据不同的控制算法进行具体编程,但这种方法也最为灵活,使用者可以根据自己所提出的新算法任意编程,该方法主要用于对某种新控制算法的仿真和应用。当然利用其他计算机语言也可根据控制算法进行具体编程,但比较而言,以利用MATLAB编程最为简单,因为MATLAB具有强大的矩阵运算和图形处理功能。而第二种和第三种方法较适合初学者,主要用于对某种成熟控制算法的仿真和应用。由于其编程简单,给使用者节省了大量的编程时间,使其能够把更多的精力投入到网络设计而不是具体程序的实现上。

本书可作为高等院校自动化类、电气类、电子信息类、计算机类、仪器类和机械类等学科类研究生和高年级本科生的教材,也可作为从事智能控制与智能系统研究、设计和应用的科学技术人员的参考用书。鉴于本书的通用性和实用性较强,也可作为相关专业的教学、研究、设计人员和工程技术人员的参考用书。

本书由李国勇和杨丽娟编著,共包含9章和3个附录。其中,第1章~第7章和第9章由李国勇编写;第8章和附录A由杨丽娟编写;附录B和附录C由阎高伟、王芳、任密蜂、杨云云和杨麦仓编写。此外,感谢责任编辑牛平月女士为本书的出版所付出的辛勤工作。

本书配套的教学课件,可登录电子工业出版社的华信资源教育网www.hxedu.com.cn免费下载。

为便于读者查阅,部分章节中矩阵、向量等符号与 MATLAB 代码及软件界面中一致,未做标准化处理,在此特加以说明。

由于作者水平有限,书中仍难免有遗漏与不当之处,恳请有关专家、同行和广大读者批评指正。作者2018年6月第一篇神经网络控制及其MATLAB实现第1章神经网络理论

人脑是一部不寻常的智能机,它能以惊人的高速度解释感觉器官传来的含糊不清的信息。它能觉察到喧闹房间内的窃窃私语,能识别出光线暗淡的胡同中的一张面孔,更能通过不断的学习而产生伟大的创造力。古今中外,许许多多科学家为了揭开大脑机能的奥秘,从不同的角度进行着长期不懈的努力和探索,逐渐形成了一个多学科交叉的前沿技术领域—神经网络(Neural Network)。

人工神经系统的研究可以追溯到 1800 年 Frued 的精神分析学时期,他已经做了一些初步工作。1913 年人工神经系统的第一个实践是由 Russell 描述的水力装置。1943 年美国心理学家Warren S McCulloch与数学家Walter H Pitts合作,用逻辑的数学工具研究客观事件在形式神经网络中的描述,从此开创了对神经网络的理论研究。他们在分析、总结神经元基本特性的基础上,首先提出神经元的数学模型,简称 MP 模型。从脑科学研究来看,MP 模型不愧为第一个用数理语言描述脑的信息处理过程的模型。后来MP模型经过数学家的精心整理和抽象,最终发展成一种有限自动机理论,再一次展现了MP模型的价值,此模型沿用至今,直接影响着这一领域研究的进展。1949 年心理学家 D.O.Hebb 提出关于神经网络学习机理的“突触修正假设”,即突触联系效率可变的假设,现在多数学习机仍遵循Hebb学习规则。1957年,Frank Rosenblatt首次提出并设计制作了著名的感知机(Perceptron),第一次从理论研究转入过程实现阶段,掀起了研究人工神经网络的高潮。虽然,从20 世纪60、70 年代,MIT 电子研究实验室的Marvin Minsky 和Seymour Dapret就开始对感知机做深入的评判,并于1969年他们出版了“Perceptron”一书,对Frank Rosenblatt的感知机的抽象版本做了详细的数学分析,认为感知机基本上是一个不值得研究的领域,曾一度使神经网络的研究陷入低谷。但是,从 1982 年美国物理学家 Hopfield 提出Hopfield神经网络,以及1986年D.E.Rumelhart和J.L.McClelland提出一种利用误差反向传播训练算法的 BP(Back Propagation)神经网络开始,在世界范围内再次掀起了神经网络的研究热潮。今天,随着科学技术的迅猛发展,神经网络正以极大的魅力吸引着世界上众多专家、学者为之奋斗,在世界范围内再次掀起了神经网络的研究热潮。难怪有关国际权威人士评论指出,目前对神经网络的研究其重要意义不亚于第二次世界大战时对原子弹的研究。

人工神经网络特有的非线性适应性信息处理能力,克服了传统人工智能方法对于直觉,如模式、语音识别、非结构化信息处理方面的缺陷,使之在神经专家系统、模式识别、智能控制、组合优化、预测等领域得到成功应用。人工神经网络与其他传统方法相结合,将推动人工智能和信息处理技术不断发展。近年来,人工神经网络正向模拟人类认知的道路上更加深入发展,与模糊系统、遗传算法、进化机制等结合,形成计算智能,成为人工智能的一个重要方向,将在实际应用中得到发展。

使用神经网络的主要优点是能够自适应样本数据,当数据中有噪声、形变和非线性时,它也能够正常地工作,很容易继承现有的领域知识,使用灵活,能够处理来自多个资源和决策系统的数据;提供简单工具进行自动特征选取,产生有用的数据表示,可作为专家系统的前端(预处理器)。此外,神经网络还能提供十分快的优化过程,尤其以硬件直接实现网络时,可以加速联机应用程序的运行速度。当然,过分夸大神经网络的应用能力也是不恰当的,毕竟它不是无所不能的。这就需要在实际工作中具体问题具体分析,合理选择。

基于神经网络的控制称为神经网络控制(NNC),简称神经控制(Neuro Control,NC)这一新词是在国际自控联杂志《自动化》(Automatica)1994年No.11首次使用的,最早源于1992年H.Tolle和E.Ersu的专著《Neuro Control》。基于神经网络的智能模拟用于控制,是实现智能控制的一种重要形式,近年来获得了迅速发展。本章介绍神经网络的基本概念、基本结构和学习算法等。1.1 神经网络的基本概念1.1.1 生物神经元的结构与功能特点

神经生理学和神经解剖学证明了人的思维是由人脑完成的。神经元是组成人脑的最基本单元,它能够接收并处理信息,人脑大约由 11124510~10个神经元组成,其中每个神经元约与 10~10个神经元通过突触连接,因此,人脑是一个复杂的信息并行加工处理巨系统。探索脑组织的结构、工作原理及信息处理的机制,是整个人类面临的一项挑战,也是整个自然科学的前沿领域。

1.生物神经元的结构

生物神经元,也称为神经细胞,是构成神经系统的基本单元。生物神经元主要由细胞体、树突和轴突构成,其基本结构如图1-1所示。图1-1 生物神经元结构

1)细胞体

细胞体由细胞核、细胞质与细胞膜等组成。一般直径为 5~100μm,大小不等。细胞体是生物神经元的主体,它是生物神经元的新陈代谢中心,同时还负责接收并处理从其他神经元传递过来的信息。细胞体的内部是细胞核,外部是细胞膜,细胞膜外是许多外延的纤维,细胞膜内外有电位差,称为膜电位,膜外为正,膜内为负。

2)轴突

轴突是由细胞体向外伸出的所有纤维中最长的一条分支。每个生物神经元只有一个轴突,长度最大可达 1m 以上,其作用相当于生物神经元的输出电缆,它通过尾部分出的许多神经末梢以及梢端的突触向其他生物神经元输出神经冲动。

轴突终端的突触,是生物神经元之间的连接接口,每一个生物神45经元有 10~10 个突触。一个生物神经元通过其轴突的神经末梢,经突触与另一生物神经元的树突连接,以实现信息的传递。

3)树突

树突是由细胞体向外伸出的除轴突外的其他纤维分支,长度一般均较短,但分支很多。它相当于神经元的输入端,用于接收从四面八方传来的神经冲动。

2.生物神经元的功能特点

从生物控制论的观点来看,作为控制和信息处理基本单元的生物神经元,具有以下功能特点。

1)时空整合功能

生物神经元对于不同时间通过同一突触传入的信息,具有时间整合功能;对于同一时间通过不同突触传入的信息,具有空间整合功能。两种功能相互结合,使生物神经元具有时空整合的输入信息处理功能。

2)动态极化性

在每一种生物神经元中,信息都是以预知的确定方向流动的,即从生物神经元的接收信息部分(细胞体、树突)传到轴突的起始部分,再传到轴突终端的突触,最后再传给另一生物神经元。尽管不同的生物神经元在形状及功能上都有明显的不同,但大多数生物神经元都是按这一方向进行信息流动的。

3)兴奋与抑制状态

生物神经元具有两种常规工作状态,即兴奋状态与抑制状态。所谓兴奋状态是指生物神经元对输入信息经整合后使细胞膜电位升高,且超过了动作电位的阈值,此时产生神经冲动并由轴突输出。抑制状态是指对输入信息整合后,细胞膜电位值下降到低于动作电位的阈值,从而导致无神经冲动输出。

4)结构的可塑性

由于突触传递信息的特性是可变的,也就是它随着神经冲动传递方式的变化,传递作用强弱不同,形成了生物神经元之间连接的柔性,这种特性又称为生物神经元结构的可塑性。

5)脉冲与电位信号的转换

突触界面具有脉冲与电位信号的转换功能。沿轴突传递的电脉冲是等幅的、离散的脉冲信号,而细胞膜电位变化为连续的电位信号,这两种信号是在突触接口进行变换的。

6)突触时延和不应期

突触对信息的传递具有时延和不应期,在相邻的两次输入之间需要一定的时间间隔,在此期间,无激励,不传递信息,这称为不应期。

7)学习、遗忘和疲劳

由于生物神经元结构的可塑性,突触的传递作用有增强、减弱和饱和三种情况。所以,神经细胞也具有相应的学习、遗忘和疲劳效应(饱和效应)。1.1.2 人工神经元模型

生物神经元经抽象化后,可得到如图 1-2 所示的一种人工神经元模型,它有三个基本要素。

1.连接权图1-2 基本神经元模型

连接权对应于生物神经元的突触,各个神经元之间的连接强度由连接权的权值表示,权值为正表示激活,为负表示抑制。

2.求和单元

用于求取各输入信号的加权和(线性组合)。

3.激活函数

激活函数起非线性映射作用,并将人工神经元输出幅度限制在一定范围内,一般限制在(0,1)或(−1,1)之间。激活函数也称为传输函数。

此外,还有一个阈值θ(或偏值b =−θ)。kkk

图1-2中的作用可分别以数学式表达出来,即

式中, x, x,…, x为输入信号,它相当于生物神经元的树12p突,为人工神经元的输入信息;w,w,…,w为神经元 k 的权k1k2kp值;u为线性组合结果;θ为阈值;ϕ(.)为激活函数;y为神经元kkkk的输出,它相当于生物神经元的轴突,为人工神经元的输出信息。

在人工神经网络中,为了简化起见,通常将图 1-2 所示的基本神经元模型表示成图 1-3 (a)或(b)所示的简化形式。图1-3 神经元模型的简化形式

图1-3(a)和(b)中的输入与输出之间的关系,可分别采用以下数学表达式进行描述

激活函数ϕ(.)一般采用以下几种形式。

1)阶跃函数

函数表达式为

2)分段线性函数

函数表达式为

3)Sigmoid型函数

最常用的Sigmoid型函数为

式中,参数a可控制其斜率。

Sigmoid型函数也简称S型函数,上式表示的是一种非对称S型函数。

另一种常用的Sigmoid型函数为双曲正切对称S型函数,即

这类函数具有平滑和渐近线,并保持单调性。1.1.3 神经网络的结构

人工神经网络(Artificial Neural Networks,ANN)是由大量人工神经元经广泛互连而组成的,它可用来模拟脑神经系统的结构和功能。人工神经网络可以看成以人工神经元为节点,用有向加权弧连接起来的有向图。在此有向图中,人工神经元(以下在不易引起混淆的情况下,人工神经元简称神经元)就是对生物神经元的模拟,而有向加权弧则是轴突—突触—树突对的模拟。有向弧的权值表示相互连接的两个人工神经元间相互作用的强弱。

人工神经网络是生物神经网络的一种模拟和近似。它主要从两个方面进行模拟。一种是从生理结构和实现机理方面进行模拟,它涉及生物学、生理学、心理学、物理及化学等许多基础科学。由于生物神经网络的结构和机理相当复杂,现在距离完全认识它们还相差甚远。另外一种是从功能上加以模拟,即尽量使得人工神经网络具有生物神经网络的某些功能特性,如学习、识别、控制等功能。本书仅讨论后者,从功能上来看,人工神经网络(以下简称神经网络或NN)根据连接方式主要分为两类。

1.前馈型网络

前馈神经网络是整个神经网络体系中最常见的一种网络,其网络中各个神经元接收前一级的输入,并输出到下一级,网络中没有反馈,如图 1-4所示。节点分为两类,即输入单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多个其他节点作为输入)。通常前馈网络可分为不同的层,第i层的输入只与第i−1层输出相连,输入和输出节点与外界相连,而其他中间层称为隐含层,它们是一种强有力的学习系统,其结构简单而易于编程。从系统的观点看,前馈神经网络是一静态非线性映射,通过简单非线性处理的复合映射可获得复杂的非线性处理能力。但从计算的观点看,前馈神经网络并非是一种强有力的计算系统,不具有丰富的动力学行为。大部分前馈神经网络是学习网络,并不注意系统的动力学行为,它们的分类能力和模式识别能力一般强于其他类型的神经网络。图1-4 前馈网络

2.反馈型网络

反馈神经网络又称为递归网络或回归网络。在反馈神经网络(Feedback NN)中,输入信号决定反馈系统的初始状态,然后系统经过一系列状态转移后,逐渐收敛于平衡状态。这样的平衡状态就是反馈网络经计算后输出的结果,由此可见,稳定性是反馈网络中最重要的问题之一。如果能找到网络的Lyapunov函数,则能保证网络从任意的初始状态都能收敛到局部最小点。反馈神经网络中所有节点都是计算单元,同时也可接收输入,并向外界输出,可画成一个无向图,如图1-5(a)所示,其中每个连接弧都是双向的,也可画成如图1-5(b)所示的形式。若总单元数为n,则每一个节点有n−l个输入和一个输出。图1-5 单层全连接反馈网络1.1.4 神经网络的工作方式

神经网络的工作过程主要分为两个阶段:第一阶段是学习期,此时各计算单元状态不变,各连接权上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算单元变化,以达到某种稳定状态。

从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解最优化问题。1.1.5 神经网络的学习

1.学习方式

通过向环境学习获取知识并改进自身性能是神经网络的一个重要特点,在一般情况下,性能的改善是按某种预定的度量调节自身参数(如权值)随时间逐步达到的,学习方式(按环境所供信息的多少分)有以下三种。图1-6 有监督学习框图

1)有监督学习(有教师学习)

有监督学习方式需要外界存在一个“教师”,它可对一组给定输入提供应有的输出结果(正确答案),这组已知的输入/输出数据称为训练样本集。学习系统可根据已知输出与实际输出之间的差值(误差信号)来调节系统参数,如图 1-6 所示。在有监督学习当中,学习规则由一组描述网络行为的训练集给出:ppp

其中,x为网络的第p个输入数据向量;t为对应x的目标输出向量;N为训练集中的样本数。当输入作用到网络时,网络的实际输出与目标输出相比较,然后学习规则调整网络的权值和阈值,从而使网络的实际输出越来越接近于目标输出。

2)无监督学习(无教师学习)

无监督学习时不存在外部教师,学习系统完全按照环境所提供数据的某些统计规律来调节自身参数或结构(这是一种自组织过程),以表示外部输入的某种固有特性(如聚类,或某种统计上的分布特征),如图1-7所示。在无监督学习中,仅仅根据网络的输入调整网络的权值和阈值,它没有目标输出。乍一看,这种学习似乎并不可行:不知道网络的目的是什么,还能够训练网络吗?实际上,大多数这种类型的算法都是要完成某种聚类操作,学会将输入模式分为有限的几种类型。这种功能特别适合于诸如向量量化等应用问题。

3)强化学习(或再励学习)

这种学习介于上述两种情况之间,外部环境对系统输出结果只给出评价(奖或罚)而不是给出正确答案,学习系统通过强化那些受奖励的动作来改善自身性能,如图 1-8 所示。强化学习与有监督的学习类似,只是它不像有监督的学习一样为每一个输入提供相应的目标输出,而是仅仅给出一个级别。这个级别(或评分)是对网络在某些输入序列上的性能测度。当前这种类型的学习要比有监督的学习少见。它最为适合控制系统应用领域。图1-7 无监督学习框图图1-8 强化学习框图

2.学习算法

1)δ学习规则(误差纠正规则)

若y(k)为输入x(k)时神经元i在k时刻的实际输出,t(k)表ii示相应的期望输出,则误差信号可写为e(k)=t(k)-y(k)iii

误差纠正学习的最终目的是使某一基于 e(k)的目标函数达最i小,以使网络中每一输出单元的实际输出在某种统计意义上最逼近期望输出。一旦选定了目标函数形式,误差纠正学习就成为一个典型的最优化问题。最常用的目标函数是均方误差判据,定义为

式中,E是统计期望算子;L为网络输出数。

上式的前提是被学习的过程是宽而平稳的,具体方法可用最陡梯度下降法。直接用 J 作为目标函数时,需要知道整个过程的统计特性,为解决这一困难,用J在时刻k的瞬时值J(k)代替J,即

问题变为求J(k)对权值w的极小值,根据最陡梯度下降法可ij得:

式中,η为学习速率或步长(0<η≤1);f(·)为激活函数。这就是通常说的误差纠正学习规则(或称为δ规则),用于控制每次误差修正值。它是基于使输出方差最小的思想而建立的。

2)Hebb学习规则

神经心理学家 Hebb 提出的学习规则可归结为“当某一突触(连接)两端的神经元的激活同步(同为激活或同为抑制)时,该连接的强度应增加,反之则应减弱”,用数学方式可描述为Δw(k)=F(y(k),x(k))ijij

式中,y(k),x(k)分别为w两端神经元的状态,其中最常用ijij的一种情况为Δw(k)=η.y(k).x(k)ijij

式中,η为学习速率。

由于 w(k)与 y(k)、x(k)的相关成比例,故有时称之为相ijij关学习规则。上式定义的 Hebb规则实际上是一种无监督的学习规则,它不需要关于目标输出的任何相关信息。

原始的 Hebb 学习规则对权值矩阵的取值未做任何限制,因而学习后权值可取任意值。为了克服这一弊病,在Hebb学习规则的基础上增加一个衰减项,即Δw(k)=η.y(k).x(k)−d∗w(k)ijijrij

衰减项的加入能够增加网络学习的“记忆”功能,并且能够有效地对权值的取值加以限制。衰减系数d的取值在[0,1]之间。当取0时,r就变成原始的Hebb学习规则。

另外,Hebb 学习规则还可以采用有监督的学习,对于有监督学习的 Hebb 学习规则而言,是将目标输出代替实际输出。由此,算法被告知的就是网络应该做什么,而不是网络当前正在做什么,可描述为Δw(k)=η.t(k).x(k)ijij

3)竞争(Competitive)学习规则

顾名思义,在竞争学习时网络各输出单元互相竞争,最后达到只有一个最强者激活。最常见的一种情况是输出神经元之间有侧向抑制性连接,如图 1-9 所示。这样众多输出单元中如有某一单元较强,则它将获胜并抑制其他单元,最后只有比较强者处于激活状态。最常用的竞争学习规则有以下三种。

3.学习与自适应

当学习系统所处环境平稳时(统计特征不随时间变化),从理论上说通过监督学习可以学到环境的统计特征,这些统计特征可被学习系统(神经网络)作为经验记住。如果环境是非平稳的(统计特征随时间变化),通常的监督学习没有能力跟踪这种变化,为解决此问题需要网络有一定的自适应能力,此时对每一个不同输入都作为一个新的例子对待,其工作过程如图1-10 所示。此时模型(如NN)被当作一个预测器,基于前一时刻输出x(k-1)和模型在k-1时刻的参数,它估计出 k 时刻的输出xˆ(k), xˆ(k)与实际值 x(k)(作为应有的正确答案)比较,其差值 e(k)称为“新息”,如新息 e(k)=0,则不修正模型参数,否则应修正模型参数以便跟踪环境的变化。图1-9 竞争学习网络图1-10 自适应学习框图1.1.6 神经网络的分类

神经网络根据不同的情况,可按以下几方面进行分类。(1)按功能分:连续型与离散型、确定型与随机型、静态与动态神经网络。(2)按连接方式分:前馈(或称前向)型与反馈型神经网络。(3)按逼近特性分:全局逼近型与局部逼近型神经网络。(4)按学习方式分:有监督学习、无监督学习和强化学习神经网络。1.2 典型神经网络的模型

自1957年F.Rosenblatt在第一届人工智能会议上展示他构造的第一个人工神经网络模型以来,据统计到目前为止已有上百种神经网络问世。根据 HCC 公司及 IEEE 的调查统计,有十多种神经网络比较著名,以下按照神经网络的拓扑结构与学习算法相结合的方法,将神经网络的类型分为前馈网络、竞争网络、反馈网络和随机网络四大类,并按类介绍 MP 模型、感知机神经网络、自适应线性神经网络(Adaline)、BP 神经网络、径向基神经网络、自组织竞争神经网络、自组织特征映射神经网络(SOM)、反传神经网络(CPN)、自适应共振理论(ART)神经网络、学习向量量化(LVQ)神经网络、Elman 神经网络、Hopfield神经网络和Boltzmann神经网络的特点、拓扑结构、工作原理和学习机理,以揭示神经网络所具有的功能和特征。运用这些神经网络模型可实现函数逼近、数据聚类、模式分类、优化计算等功能。因此,神经网络广泛应用于人工智能、自动控制、机器人、统计学等领域的信息处理中。1.2.1 MP模型

MP模型最初是由美国心理学家McCulloch和数学家Pitts在1943年共同提出的,它是由固定的结构和权组成的,它的权分为兴奋性突触权和抑制性突触权两类,如抑制性突触权被激活,则神经元被抑制,输出为零。兴奋性突触权能否激活,则要看它的累加值是否大于一个阈值,大于该阈值神经元即兴奋。

早期提出的MP模型结构如图1-11(a)所示,其中图1-11(a)有以下关系式图1-11 MP模型中单个神经元示意图

式中,x(j=1,2,…,n)为兴奋性突触的输入,x(k=1,2,ejik…,n)为抑制性突触的输入。在图 1-11(a)中,模型的权值均为1,它可以用来完成一些逻辑性关系,其输入输出关系为

如果兴奋与抑制突触用权±1 表示,而总的作用用加权的办法实现,兴奋为 1,抑制为−1,则MP模型可表示成如图1-11(b)所示的形式,则有

图 1-12(a)、(b)、(c)、(d)和(e)是利用 MP 模型分别表示的或、与、非以及一些逻辑关系式。图1-12 用MP模型实现的布尔逻辑

MP 模型的权值、输入和输出都是二值变量,这同由逻辑门组成的逻辑关系式的实现区别不大,又由于它的权值无法调节,因而现在很少有人单独使用。但它是人工神经元模型的基础,也是神经网络理论的基础。1.2.2 感知机

1.感知机的网络结构

1957 年美国心理学家 Frank Rosenblatt 及其合作者为了研究大脑的存储、学习和认知过程而提出了一类神经网络模型,并称其为感知机(Perceptron)。感知机较 MP 模型又进一步,它的输入可以是非离散量,它的权不仅是非离散量,而且可以通过调整学习而得到。感知机可以对输入的样本矢量进行模式分类,而且多层的感知机,在某些样本点上对函数进行逼近,但感知机是一个线性阈值单元组成的网络,在结构和算法上都成为其他前馈网络的基础,尤其它对隐单元的选取比其他非线性阈值单元组成的网络容易分析,而对感知机的讨论,可以对其他网络的分析提供依据。由于感知机的权值可以通过学习调整而得到,因此它被认为是最早提出的一种神经网络模型。图1-13为感知机的两种结构。图1-13 感知机的结构T

在这种模型中,输入模式 x=[x,x,…,x]通过各输入端点分12M配给下一层的各节点,下一层可以是中间层(或称为隐含层),也可以是输出层,隐含层可以是一层也可以是多层,最后通过输出层节点T得到输出模式y=[y,y,…,y]。在这类前馈网络中没有层内连接,12L也没有隔层的前馈连接。每一节点只能前馈连接到其下一层的所有节点。然而,对于含有隐含层的多层感知机,当时没有可行的训练方法,所以初期研究的感知机为一层感知机或称为简单感知机,通常就把它称为感知机。虽然简单感知机有其局限性,但人们对它进行了深入的研究,有关它的理论仍是研究其他网络模型的基础。

如果在输入层和输出层单元之间加入一层或多层处理单元,即可构成多层感知机,因而多层感知机由输入层、隐含层、输出层组成。隐含层的作用相当于特征检测器,提取输入模式中包含的有效特征信息,使输出单元所处理的模式是线性可分的。但需注意,多层感知机模型只允许一层连接权值可调,这是因为无法设计出一个有效的多层感知机学习算法。图 1-14 是一个两层感知机结构(包括输入层、一个隐含层和一个输出层),有两层连接权,其中输入层和隐含层单元间的连接权值是随机设定的固定值,不可调节;隐含层与输出层单元间的连接权值是可调的。图1-14 两层感知机的结构

值得注意的是,在神经网络中,由于输入层仅仅起输入信号的等值传输作用,而不对信号进行运算,故在定义多少层神经网络时,一般不把输入层计算在内,如上所述。也就是说,一般把隐含层称为神经网络的第一层,输出层称为神经网络的第二层(假如只有一个隐含层)。如果有两个隐含层,则第一个隐含层称为神经网络的第一层,第二个隐含层称为神经网络的第二层,而输出层称为神经网络的第三层。如果有多个隐含层,则以此类推。在MATLAB神经网络工具箱中的定义也类同。

对于具有 M 个输入、L 个输出的单层感知机,如图 1-13(a)所示。该网络通过一组权值 w(i=1,2,…, L;j=1,2,…, M)与 ijL 个神经元组成。根据结构图,输出层的第 i 个神经元的输入总和和输出分别为

式中,θ为输出层神经元i的阈值;M为输入层的节点数,即输入i的个数;f(·)为激活函数。

感知机中的激活函数使用了阶跃限幅函数,因此感知机能够将输入向量分为两个区域,即

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载