论文摘要
神经网络的研究可以追溯到19世纪末20世纪初,它是在心理学、神经生理学和物理学等基础之上发展起来的一门新兴交叉学科。它的诞生对电子科学、信息科学、数理科学等相关领域产生了巨大影响,促使了以神经计算机为基础的高技术群的诞生和发展。经过半个多世纪的曲折发展历程,它已成为近年来发展速度最为迅速的一个国际前沿研究领域,并演绎出各种不同形式的模型和研究分支。目前,神经网络已广泛应用于图像处理、自动控制、模式识别、信号处理、经济、化工以及电力系统等诸多领域。众所周知,在神经网络的实际应用过程中,大多数情况要求所建神经网络模型必须是稳定的,即神经网络模型所对应状态方程的所有解都收敛到平衡点。然而,神经网络模型在具体的硬件实现过程中,稳定性往往会受到其它因素的干扰。在众多破坏网络稳定性的因素之中,网络时延是其中的主要因素之一。由于信号的有限传输速度,使得网络时延不可避免,它已成为网络的一个基本特征。时延的存在,对网络动力学性质所产生的影响是巨大的,可以造成网络出现不稳定,周期振荡甚至混沌等现象。因此,在神经网络数学建模时,时滞应该体现在所建模型之中。时滞神经网络模型稳定性研究是网络硬件实现的需要,也是网络实际应用的需要。基于时滞神经网络模型在实际应用中的重要性,本论文主要针对一类特殊时变时滞神经网络模型进行了研究,深入分析了该模型的稳定性问题,取得了如下研究成果:(1)利用一重积分Jensen不等式、二重积分形式Jensen不等式以及倒凸不等式等工具,运用线性矩阵不等式(LMI)技术、不等式技巧,通过建立新的广义Lyapunov函数,建立了一些新的神经网络稳定性判据。同时考虑到上述不等式的局限性,通过推广一些现有积分不等式,进一步建立了保守性较弱的稳定性改进判据。(2)考虑到神经网络模型激活函数扇形有界约束条件的特点,利用凸锥理论,通过将激活函数的非线性形式改写成参数不定线性表达,结合Finsler引理、时滞分解技术以及分段凸Lyapunov函数构造技术,进一步建立了一系列新的稳定性判据。(3)列举了多个数值仿真算例来验证新判据的可行性和优越性。最后对全文的主要贡献作了总结,分析了本文所建稳定性判据的优点和缺陷,最后在综合分析基础之上,进一步指出了将来的工作方向和研究重点。