毕业论文

打赏
当前位置: 毕业论文 > 数学论文 >

一类广义变时滞递归神经网络稳定性的新判据

时间:2020-06-21 14:26来源:毕业论文
摘要 本文对一类广义变时滞递归神经网络的稳定性进行了系统深入的研究.在充分学习稳定性理论后,本文结合数学分析的知识构造出一个新颖的具有三重积分项的Lyapunov函数并给出了一个

摘要   本文对一类广义变时滞递归神经网络的稳定性进行了系统深入的研究.在充分学习稳定性理论后,本文结合数学分析的知识构造出一个新颖的具有三重积分项的Lyapunov函数并给出了一个判定该神经网络平衡点全局渐近稳定性的充分条件.然后运用积分不等式技巧证明了该判据的科学性及合理性.在现有的知识储备下,本文已尽可能地降低所给充分条件的保守性. 51390
毕业论文关键词  递归神经网络; 变时滞;  稳定性判据; 保守性  1 引言 最近,AlphaGo 大战世界围棋冠军李世石引起各方关注,从而再一次掀起了人工智能的热潮.作为人工智能最重要的组成部分--神经网络已经被广泛地应用到组合优化、信号处理,模式识别及联想记忆等各个领域.神经网络具有五个显著的优点:广泛的非线性映射能力、良好的自学习适应能力、丰富的联想记忆能力、快速进行大规模并行信息处理的能力以及很好的容错性能[1].   在神经网络理论与计算机相结合后,人们对算法的收敛性提出了要求,从而展开了对神经网络模型的稳定性的探究.稳定性对于任何一个控制系统都是最基本的要求.对于神经网络而言,网络的输出是时间的函数,对于所给的输入,网络的工作结果可能收敛到一个稳定的输出值,也可能遵循一种混乱的模式,比如,振荡或无限增大,所以,在将神经网络模型投入实际应用之前一定要进行稳定性分析. 众所周知,在神经网络中时滞现象是客观存在的.然而时滞的存在常常导致系统难以达到预期的效果,表现在系统能力的退化弱化或系统的不稳定.对这一问题研究的一个核心任务就是希望在能够保证系统平衡点是全局渐近稳定的情况下,得到一个尽可能大的时滞上界.论文网为了能够不断提高时滞上界获得更高的实用价值,很多学者做出了贡献,他们不断尝试并改良各种方法,给出了许多优秀的结果[2]. 不等式技巧已经成为研究这一问题的潮流,很多学者都致力于引入先进的保守性较低的不等式来对所构造的 Lyapunov 函数的导数进行放缩.早期,韩国学者Park 领导的研究团队于1999 年首次提出了Park不等式,随后,  Moon 改进了 Park 不等式,提出了保守性更小的 Moon不等式;2003年Gu, Kharitonov & Chen 率先引入了詹森不等式;2009年中国学者孙健,陈杰等人在构造
Lyapunov 函数时创造性地引入了三重积分项并证明了这一创造性的改良对于降低稳定性条件的保守性是十分有效的;2013年,Seuret & Gouaisbaut引入Wirtinger-based  积分不等式来研究带有二次项的积分形式,例如:    ( 0)tTthx s Mx s ds M    ;2014 年,Park 等人在Wirtinger-based 积分不等式基础上又提出一个新的推论将常规的定积分推广到了更高维数中去[2]. 本文主要探究了一类广义变时滞递归神经网络模型的稳定性,系统模型可以用常微分方程描述如下                    01rt kkkduAu t W g u t W g u t t Idt      .      (1.1)模型(1.1)包含了许多常见的网络模型作为特例,比如当1 r 时便是含有变时滞的细胞模型;而当  , 1,2, ,kt k r      ,其中是一个正的常数,这时系统便是一个广义的常时滞递归神经网络模型.本文将现有文献中对含有变时滞细胞模型及常时滞递归神经网络稳定性分析的研究成果推广到广义变时滞递归神经网络模型中,得出了一个可以判定系统平衡点的全局渐近稳定性的新判据,该判据具有较低的保守性.  2预备知识 2.1稳定性相关的基本理论综述 考虑由如下的微分方程组描述的系统:   0 ,, y g t y t t .                      一类广义变时滞递归神经网络稳定性的新判据:http://www.youerw.com/shuxue/lunwen_55017.html
------分隔线----------------------------
推荐内容