SERVICE PHONE

400-123-4657
  • 诚信为本,市场在变,诚信永远不变...

杏耀动态

当前位置: 首页 > 杏耀动态

深入浅出最优化(1) 最优化问题概念与基本知识_1

发布时间:2024-04-15 点击量:56

最优化问题大体上分为连续最优化问题和离散最优化问题两种。后者涉及到离散数学、组合数学等学科,属于计算机专业的专业课程,而前者的雏形在微积分课程中,甚至在高中、初中、小学的数学课堂上就有所涉及。

我们还记得求一个定义域内连续可微的一元实函数的最小值点的求解方法:求导,寻找导数为0的点,再求二阶导,这些点当中二阶导大于0的点是我们需要的极值点,再将这些极点对应的函数值进行对比,函数值最小的点就是我们需要的最小值点。

上述问题就是一个最基本的最优化问题,但它已经充分描述了最优化问题的基本目标:求解函数的最小值点。当然,求解最大值点的方法也是相同的,因此我们再讨论最优化问题时只讨论最小化问题。

若函数定义域为R,则该最优化问题为无约束最优化问题。否则,就是约束最优化问题

下面,针对多元函数,我们提出最优化问题规范化的描述。

  • 最优点x^*
  • 最优值f(x^*)
  • 最优解(x^*,f(x^*))^T
  • 可行域D,对应于基本问题中的定义域
  • 梯度g=
abla f(x),对应于基本问题中的一阶导数
  • 黑森矩阵G=
abla^2f(x),对于n元函数,(i,j)\quad i,j\in n位置的值为\frac{\partial^2 f(x)}{\partial x_i\partial x_j},对应于基本问题中的二阶导数
  • 局部最优解:在x^*附近一个邻域内f(x^*)最小,对应基本问题中的极值点
  • 全局最优解:在Df(x^*)最小,对应基本问题中的最小值点
  1. 一阶必要条件:f(x)一阶连续可微且g^*=
abla f(x^*)=0x^*为f(x)的局部最优解的必要条件。满足g^*=
abla f(x^*)=0的点称为驻点。驻点分为:极小点,极大点,鞍点
在这里插入图片描述

仅从三维空间来看,梯度为0的几何意义是该处曲面水平。当然这个曲面还可以拓展到更高维的空间中,在此不再赘述

  1. 二阶充分条件:f(x)二阶连续可微且
abla f(x^*)=0, 
abla^2f(x^*)正定,是x^*为f(x)的严格局部最优解的充分条件。如果说一阶条件刻画了f(x)在x处切平面的法向,二阶条件就刻画了曲面的弯曲方向,而
abla^2f(x^*)正定代表了此处曲面向上弯曲

以上两个条件虽然拓展到了高维,但实际上和一元函数最优化问题的条件是通过1.2中给出的对应关系对应的,结合起来就不难理解

我们最终的目标是要实现让计算机代替我们去寻找最优化问题的解。我们不能指望计算机具有和我们一样的智能、对于一个方程可以使用人类总结出来的诸如分离变量之类的各种方法去求解。我们只能使用数值方法,通过循环迭代解出一个逼近于最优解的答案。这个过程称为迭代搜索

我们考虑如图所示的一个三维曲面,x_k是当前我们所在点。假如这个点不是我们需要的最优解,我们就需要移动到下一个点。移动需要确定方向和距离,因此我们有迭代搜索的基本元素如下:

  • 步长:迭代搜索第k步的长度,用\alpha_k表示

  • 下降方向:迭代搜索第k步的方向,用d_k表示,沿该方向函数值需要下降,这样才能保证算法的收敛性。其中可行方向表示沿着该方向搜索,存在使得下一个点不超出可行域的步长

在这里插入图片描述
  • 终止准则:考虑一阶必要条件,即
abla f(x)=0,我们将这个条件作为迭代终止的准则。如果我们当前所在点满足准则,就不需要再寻找下一个点了。当然,对于搜索算法来说,我们不能保证我们一定可以通过有限步的搜索找到精确地满足
abla f(x)=0的点,而我们在实际工程运用中对于最小值点的要求也并非是绝对精确的。因此,引入一个精确度\epsilon,只要梯度满足||g(x_k)||\leq \epsilon即可认为满足了终止准则。

根据基本元素,我们可以得出n元函数迭代搜索的步骤:

  1. 给出x_0\in R^n,0\leq \epsilon<<1,k=0
  2. 如果在x_k终止准则被满足,停止迭代
  3. 确定x_k下降方向d_k
  4. 确定步长因子\alpha_k
  5. x_{k+1}=x_k+\alpha_kd_k,转步骤2
  1. 收敛性:对于迭代序列x^{(k)},严格的收敛定义要求k趋近于正无穷时等于最优点,弱化的收敛定义要求k趋近于无穷时一阶偏导向量的范数为0
  2. 收敛速度x^{(k)}为p阶收敛,则\displaystyle\lim_{k→∞}\frac{||x^{(k+1)}-x^*||}{||x^{(k)}-x^*||^P}=\beta<+∞
    1. p=1,0<\beta<1,则算法线性收敛
    2. p=1,\beta=0,则算法超线性收敛
    3. p=2,\beta>0,则算法二阶收敛。二阶收敛必定超线性收敛,且二阶收敛的算法收敛速度高于线性收敛的算法
  3. 二次终止性:若某个算法对于任意的正定二次函数,从任意初始点出发,都能经过有限步迭代达到极小值,则称算法具有二次终止性

一个可行的收敛算法必须满足收敛性,收敛速度越快的算法性质越好,而具有二次终止性的算法可以在求解二次函数最优化问题时具有广泛的应用价值。但证明这些性质并不作为本系列教程的重点。本教程会给出每一种算法性质的结论与相关证明教程链接,有兴趣的读者可以自行查阅

点列的曲线拟合是我们高中开始就接触过的问题。为了寻找一个待定系数的函数,可以以最小的误差去描述点列,我们需要用到最小二乘法。有关最小二乘法可以参阅:https://www.zhihu.com/question/37031188

最小二乘法是我们研究无约束最优化问题的一个出色的实例。它具有广泛的应用价值,而且目标函数的局部最优解就是全局最优解。我们在接下来的无约束最优化问题部分将针对一个最小二乘法例题进行研究。

例题:

min\displaystyle\sum_{i=1}^{11}(y_i-\hat{f}(x,t_i))^2,\hat{f}(x,t)=\frac{x_1(t^2+x_2 t)}{t^2+x_3t+x_4}

在这里插入图片描述

给出了11组(t_i,y_i)的数据,要求我们通过最小二乘法解出x_i,i\in1,2,3,4,使得函数\hat{f}(x,t)可以最好地拟合y=f(t)

本博客所有代码在https://github.com/HarmoniaLeo/optimization-in-a-nutshell开源,如果帮助到你,请点个star,谢谢这对我真的很重要!

本次代码实现内容是梯度、梯度二范数、黑森矩阵等最优化问题基本件的python数值解法,以及简化的python线性代数库

梯度、梯度二范数、黑森矩阵求法参考自博客,有修改:https://www.cnblogs.com/kisetsu/p/9145393.html

制作一个文件Fuction.py,在里面写入:


在之后的每个方法实现中,我们都会用到Fuction.py


另外制作一个文件lagb.py,在里面写入:


在之后的每个方法实现中,我们也都会用到lagb.py

          
        

平台注册入口