APP下载

二次最小化问题的有限时间递归神经网络求解*

2019-05-05张永胜

关键词:神经网络误差状态

张永胜,肖 林

(吉首大学信息科学与工程学院,湖南 吉首 416000)

二次最小化问题是未加约束条件的二次规划问题,是一类重要的非线性最优化问题.快速求解二次最小化问题,在科学研究和工程应用领域中具有重大意义[1-3].对于求解非线性最优化问题,传统数值方法有梯度法、迭代法、极值点排序法、拟牛顿法、罚函数法和SQP等[4],但这些方法在求解时存在速度慢、复杂度高等缺点.

考虑到人工神经网络具备大规模并行处理、全局稳定和快速收敛等优点[5-9],有学者利用它来求解二次规划问题和非线性方程组,并在理论上对求解的稳定性和有效性进行了详细分析[10-11].尽管张神经网络[12-13]可以用来准确地求解静态或者动态的数值计算问题,但在进行大规模处理和计算时,可能会出现运行时间长等问题,难以满足实时计算的要求.为了进一步提高神经网络求解数值问题的性能,又有学者研究了有限时间收敛的递归神经网络模型[14-18].笔者拟引入一个特殊的非线性激励函数来设计有限时间收敛的递归神经网络模型,以达到快速求解二次最小化问题的目的.

1 有限时间收敛的递归神经网络模型

1.1 有限时间收敛的递归神经网络模型的设计与推导

给出一个二次最小化问题:

(1)

Ax+b=0.

(2)

于是,求解问题(1)等价于求解线性方程组(2).

根据神经网络的设计方法[11],可通过定义误差函数

e(t)=Ax(t)+b

(3)

来求解线性方程组(2).由递归神经网络的连续学习法则可得递归神经网络的设计公式

(4)

其中λ(>0)是一个自定义的参数,用来调节递归神经网络的收敛速率.将(3)式代入(4)式,即得传统的递归神经网络模型

(5)

值得注意的是,利用递归神经网络模型(5)求解问题(1)时,尽管其状态解能收敛到理论解,但是收敛速度有限,只能达到全局指数收敛水平.在进行大规模实时处理和计算时,模型(5)难以达到实时求解的要求.因此,为了加快收敛速度,笔者在模型(5)的基础上引入非线性单调递增的奇激励函数Φ(·),从而得到改进模型

(6)

考虑到引入符号函数可以使治系统在有限时间内达到稳定,因此在激励函数中引入符号函数

显然,直接引用符号函数并不符合激励函数加速神经网络的要求,于是使用改进的激励函数,即双符号幂激励函数,其表达式为

(7)

其中:r∈(0,1);

双符号幂激励函数(7)是单调递增的奇激励函数.将(7)式代入(6)式,得到有时间限收敛的递归神经网络模型

(8)

1.2 有限时间收敛的递归神经网络模型的讨论

证明定义e(t)=Ax(t)+b∈Rn,对其求时间导数,得到

(9)

将模型(8)代入(9)式,得到

于是

定义一个Lyapunov函数,L=|e+(t)|2,求其时间导数,得到

综上所述,初始向量x(0)随机给定,利用模型(8)求解线性方程组(1)时,模型(8)的状态向量x(t)能够在有限时间tc之内收敛到线性方程组(1)的理论解,且理论上误差界限等于0.

证毕.

2 仿真验证

在同等条件下,采用MATLAB软件对模型(5)和模型(8)求解问题(1)的过程分别进行仿真.对于问题(1),不失一般性,其系数可设置为

通过数学方法进行求解,可解得其理论解A*=(-1 1)T.

取λ=1,初始状态x(0)∈R2随机给定.分别利用模型(5)和模型(8)求解问题(1),其状态解x(t)和误差函数e(t)的收敛状况如图1—4所示.

图1 λ=1时模型(5)的状态解Fig. 1 State Solution of Model (5) with λ=1

图2 λ=1时模型(5)的误差函数Fig. 2 Error Function of Model (5) with λ=1

图3 λ=1时模型(8)的状态解Fig. 3 State Solution of Model (8) with λ=1

图4 λ=1时模型(8)的误差函数Fig. 4 Error Function of Model (8) with λ=1

由图1和图2可以看出,利用模型(5)求解问题(1),随着时间的推移,状态解x(t)缓慢地收敛到理论解A*,误差函数e(t)在6 s左右缓慢地接近0,属于无限时间收敛;由图3和图4可以看出,利用模型(8)求解问题(1),状态解x(t)迅速地收敛到理论解A*,误差函数在2.6 s左右就迅速地接近0,属于有限时间收敛.由此可知,相比于模型(5),利用模型(8)来求解问题(1)的速度更快.

增大λ,取λ=10,此时分别利用模型(5)和模型(8)求解问题(1),其状态解x(t)和误差函数e(t)的收敛状况如图5—8所示.

图5 λ=10时模型(5)的状态解Fig. 5 State Solution of Model (5) with λ=10

图6 λ=10时模型(5)的误差函数Fig. 6 Error Function of Model (5) with λ=10

图7 λ=10时模型(8)的状态解Fig. 7 State Solution of Model (8) with λ=10

图8 λ=10时模型(8)的误差函数Fig. 8 Error Function of Model (8) with λ=10

由图5和图6可以看出,利用模型(5)求解问题(1),状态解x(t)在0.6 s左右收敛到理论解A*,误差函数在0.6 s左右接近0;由图7和图8可以看出,利用模型(8)求解问题(1),状态解x(t)在0.26 s左右收敛到理论解A*,误差函数在0.26 s左右接近0.对比图1—8可知,当λ的取值增大至原来的10倍时,利用模型(5)和模型(8)求解问题(1)所需的时间对应缩短约为原来的1/10.

继续增大λ,取λ=100,分别利用模型(5)模型(8)求解问题(1),其状态解x(t)和误差函数e(t)的收敛状况如图9—12所示.

图9 λ=100时模型(5)的状态解Fig. 9 State Solution of Model (5) with λ=100

图10 λ=100时模型(5)的误差函数Fig. 10 Error Function of Model (5) with λ=100

图11 λ=100时模型(8)的状态解Fig. 11 State Solution of Model (8) with λ=100

图12 λ=120时模型(8)的误差函数Fig. 12 Error Function of Model (8) with λ=100

由图9和图10可以看出,利用模型(5)求解问题(1),状态解x(t)在0.06 s左右收敛到理论解A*,误差函数在0.06 s左右接近0;由图11和图12可以看出,利用模型(8)求解问题(1),状态解x(t)在0.026 s左右收敛到理论解A*,误差函数在0.026 s左右接近0.

从仿真结果来看,利用模型(5)和模型(8)都能有效地求解问题(1),但是相比于模型(5),在同样条件下利用模型(8)求解问题(1)的速度更快.此外,当设计参数λ成倍增大,利用模型(5)和模型(8)求解问题(1)的时间都会以相同倍数缩短.理论上,若设计参数无限大,则收敛时间可以无限小,但限于实际应用中λ表示电容、电感等电子元器件的取值,因此不可能无限大.

3 结语

在传统递归神经网络模型的基础上引入双符号幂激励函数,得到有限时间收敛的递归神经网络模型.用该模型来求解二次最小化问题,可以加快求解速度.理论分析结果验证了有限时间收敛的递归神经网络模型的有限时间收敛性,且收敛时间的上界可以通过推导得出.但由于本研究求解过程均在理想的、无干扰的状态下进行,没有考虑噪声扰动,不具备容噪性能,因此在下一步工作中,笔者将考虑噪声干扰环境下递归神经网络模型的快速求解.

猜你喜欢

神经网络误差状态
角接触球轴承接触角误差控制
Beidou, le système de navigation par satellite compatible et interopérable
神经网络抑制无线通信干扰探究
状态联想
压力容器制造误差探究
基于神经网络的中小学生情感分析
生命的另一种状态
基于神经网络的拉矫机控制模型建立
坚持是成功前的状态
九十亿分之一的“生死”误差