因为做本科毕业论文,所以看了一些关于随机规划的论文,与大家分享。
最近看了中科院大学王晓老师发表在SIAM上的一篇关于随机惩罚方法的论文,主要讲随机惩罚逼近方法,名字是Penalty methods with stochastic approximation for stochastic nonlinear programming。
随机规划问题在应用方面可以用来最小化机器学习中的损失函数等等一些。
随机非线性规划问题可以根据目标函数的形式分为两类,一类是目标函数可以直接写出来的,例如最小化一个函数
目标函数有了之后,看约束条件。根据是否有约束条件可以把非线性规划问题分为两类,一类是无约束问题,一类是有约束问题。在这篇paper中主要考虑有等式约束的非线性规划。
确定性条件下的惩罚方法就不在此详细说了。与确定性问题的解决问题的思路是一致的,把噪声梯度值当成是精确梯度值来计算,迭代的过程选择了交替下降法(在其他相关paper中有其他算法)。首先,第一步是构造子问题,也就是最小化{目标函数+惩罚函数与约束等式的复合函数},解决了这个问题之后,在一定的终止条件基础上终止这个过程。
上面一段就是这个过程的精简版叙述,问题是随机的,解决方法的随机性体现在这里:“把噪声梯度值当成是精确梯度值来计算”这个过程中,将噪声梯度值算m次平均,然后最小化子问题的时候,取随机的迭代次数。
先写这么多吧,回头再更。