论文摘要
神经网络在信号处理、动态图像处理、人工智能和全局优化等问题中有非常重要的作用。近年来,神经网络的动力学问题引起了学术界的广泛关注。神经网络平衡解或周期解的稳定性(包括渐近稳定性、指数稳定性、绝对稳定性、周期稳定等)有深入的研究,也得到了一系列深刻的结果。在稳定性的研究中,最广泛使用的方法是Lyapunov方法,它把稳定性问题变为某些适当地定义在系统轨迹上的泛函稳定性问题,并通过这些泛函取得相应的稳定性条件。稳定性条件就其表述形式至少可分为四种,即参数的代数不等式、系数矩阵的范数不等式、矩阵不等式和线性矩阵不等式(LMI)等。本文通过构造Lyapunov泛函的方法,分析时滞Cohen-Grossberg神经网络(CGNN)的稳定性。在非常数激活函数单调不减、满足Lipschitz连续的情况下,得到了时滞CGNN的全局渐近稳定性及全局指数稳定性条件。此方法同样适用时滞CGNN的特殊模型时滞细胞神经网络(DCNN)、Hopfield神经网络(HNN)及时滞Hopfield神经网络(DHNN),可以证明这些模型的平衡解是全局渐近稳定的及全局指数稳定的。通过和其他文献结果的比较,发现本文的方法不仅可以保证各类模型的平衡解的全局渐近稳定性,更能保证其全局指数稳定性。本文同时推广了文献的一些结果,使这种方法适用的范围更加广泛。