用于复变动力二次规划的复值张神经网络总结

本文使用复值张神经网络求解复变动力二次规划问题。这个复值ZNN是用linear function, sign function , Li function激活的,然后比较不同的函数之间不同的收敛率。 并且一个容燥的ZNN被提出,确保在一般的噪声下能够收敛。本文提出的复杂ZNNs具有较少的神经元数量和较高的收敛速度。

为什么要减少神经元数量??

数值算法在一般的时变二次规划问题上不是很有有效的,这主要是因为时变二次规划问题的最优解是关于时间变量的函数。数值算法只能处理无限时间的一般的二次规划问题。此外,当遇到大规模时变二次规划问题时,离散数值方法的计算复杂度也会增加。

神经网络具有高性能的并行计算,并且可以通过电子硬件实现。GNN被用来求解在线问题,但对于时变问题没有很好的性能。而最新提出的ZNN可以求解时变问题动力问题,而且相比GNN,ZNN的速度更快,并且误差函数也能够收敛到零。

在论文《 Modified ZNN for time-varying quadratic programming with inherent tolerance to noises and its application to kinematic
redundancy resolution of robot manipulators》 中通过在ZNN设计公式上加一个积分项,提出了一种改进的ZNN来解决实时QP问题。改进的ZNN也表现良好,并且在存在测量噪声时具有很强的鲁棒性。

Jin和Li 在《 Nonconvex function activated zeroing neural network models for dynamic quadratic programming subject to equality and inequality constraints 》构建了归零神经网络,并在优化问题中引入了不等式约束。 然而,由于拉格朗日乘法的引入,上述参考文献中的ZNN分别具有n + m和n + m + 2p神经元,这意味着它们需要高成本的计算和实现。所以需要减少神经元。在《 A guaranteed transient performance-based adaptive neural control scheme with low-complexity computation for flexible air-breathing hypersonic vehicles》中基于最小学习参数方法,神经网络的更新参数大大降低。 这些提出的方法能够最小化计算成本。

在本文中,通过消除拉格朗日乘数来降低模型复杂度,也减少了所提出的ZNN的神经元。

在《 Two finite-time convergent Zhang neural network models for time-varying complex matrix drazin inverse》中处理复值问题是将复值变量的实部虚部分离,将相关的复值问题转化成为实值问题。这样设计的ZNN具有2N个神经元,这意味着更高的模型复杂度。

但是,正如我们所知,ZNN很少涉及时变复杂变量优化问题。复变量优化在信号处理和通信中起着重要作用。复杂优化的神经动力学方法已被众多研究人员广泛研究。设计神经网络需要目标函数的梯度信息。然而,复变量目标函数不一定是解析的,它不满足Cauchy-Riemann条件。然后不能立即获得目标函数的梯度。因此,在[39]中引入了一种重新缓慢的CR演算。复变函数作为原始复变量的实部和虚部的函数。此外,引入复杂梯度的定义来解决复杂的优化问题。通过引入宽松的CR演算,可以制定复杂的ZNN模型,可以有效地求解动态复变QP。

受上述现有结果的启发,本文提出了几种具有不同收敛速率的变参数复杂ZNN来求解复变时变QP。 本文介绍了一种新的复杂ZNN复合激活函数数组,避免了复杂神经元的实部和虚部的分离。 通过消除拉格朗日乘数,提出的ZNN中的神经元数量减少到n,这比我们所知的任何其他现有结果中的神经元数量少。

猜你喜欢

转载自blog.csdn.net/weixin_42065630/article/details/85157183