欢迎来到某某官网,某某是一家生产阳光板耐力板厂家,品质保障,欢迎咨询!

返回列表页

最优化方法复习笔记(一)梯度下降法、精确线搜索与非精确线搜索(推导+程序)

最优化方法期中考试考得并不理想=_=。

算了~~~多余的时间想给自己来一次非常不地道的哈尔莫斯教学法,算是对大二咸鱼生活的一点补充吧。

大概就是把最优化方法的知识点整理一遍,写一个十篇文章的系列。

如果你也是正在学习最优化方法的本科生或者研究生(或者高中生),欢迎多多交流。

  • 梯度下降法
  • 精确线搜索
  • 精确线搜索的程序实现
  • 精确线搜索的缺点
  • 非精确线搜索
  • Goldstein准则
  • Goldstein准则非精确线搜索算法
  • Wolfe准则
  • 强Wolfe准则
  • Wolfe准则非精确线搜索算法

梯度下降法又称为最速下降法,是最优化方法中最基本的一种方法。不过随着ML的热火,梯度下降这个名词估计也满街飞了。

所有的无约束最优化问题无非是在求解如下的无约束优化问题:

\\min _{x\\in R^n}f(x)\\\\ 如果我们想要通过迭代的方式,将初始点 x_0 ?逐步迭代到最优解所在的点 x^* ?,那么我们就会考虑这样的一个搜索点迭代过程:

x_{t+1}=x_t+\\gamma_t d_t\\\\ 其中 d_t 是我们根据目标函数在 x_t 的情况确定的搜索方向,而 \\gamma_t 则称为迭代点 x_t 沿搜索方向的步长。因此,我们需要寻求一种算法,在已知函数 f 和迭代点 x_t 的情况下,能够算出搜索方向 d_t ,使得 x_t 在这个搜索方向下得到的点能够使得 f 变小,即:

f(x_{t+1})<f(x_t)\\\\ 如果只是单纯地希望得到的新迭代点能够使得?的值变小,那么新的迭代点很好找,直接通过坐标下降法这种无梯度的方法就可以达到目的。然而梯度下降法希望得到一个在该点下降最快的方向,来使得我们的迭代过程尽可能的高效。

如何确定这个式子中的 d_t ?将是我们所有含梯度下降法的思路出发点。

初等微积分的知识告诉我们,某一点处的梯度方向是函数值增长最快的方向,那么梯度的反方向就是函数值下降最快的方向。因此在函数一阶可微的情况下,我们直接求取 \
abla f(x_t) ?,那么? d_t=-\
abla f(x_t) 就是函数下降方向最快的方向了。

需要说明的是,下降最快不代表下降幅度最大

下面我们证明这一点:

设目标函数 f ?连续可微,将? f 在? x_t 处Taylor展开:

f(x)=f(x_t)+\
abla f(x_t)^T(x-x_t)+o(||x-x_t||)\\\\ 令? x=x_{t+1} ,结合 x_{t+1}=x_t+\\gamma_t d_t 迭代法?可得:

f(x_{t+1})=f(x_t)+\\gamma_t \
abla f(x_t)^T d_t+o(||x_{t+1}-x_t||)\\\\若我们的迭代过程是切实可行的、能够收敛的,那么很显然有? x_{t+1}-x_t\	o 0(t\	o\\infty) 。因此,我们有: f(x_{t+1})=f(x_t)+\\gamma_t\
abla f(x_t)^T d_t ?。

为了使得本次迭代能够使得 f(x_{t+1})<f(x_t) ?,需要确保 f(x_{t+1}) ?随着? \\gamma_t 的增大而减小( x_t 的小领域内),即? \\frac{\\partial f}{\\partial \\gamma}=\
abla f(x_t)^T d_t<0 ,而且我们希望? f(x_{t+1}) 下降得尽可能快,也就是我们想要的?满足:

d_t^*=\\arg\\min_{d_t}\\frac{\\partial f}{\\partial \\gamma}=\\arg\\max_{d_t}-\\frac{\\partial f}{\\partial \\gamma}\\\\ 由Cauchy不等式:

-\\frac{\\partial f}{\\partial \\gamma}=-\
abla f(x_t)^Td_t\\le ||\
abla f(x_t)||\\cdot||d_t||\\\\

根据Cauchy不等式成立的条件, d_t ?需要与 -\
abla f(x_t) ?同向。所以我们想要寻找的下降最快的方向 d_t^* ?与 -\
abla f(x_t) ?同向。

因此,梯度下降法只考虑了当前的函数关于 \\gamma ?下降最快的方向。


于是我们找到了一种可行的搜索方向。因此,梯度下降法也就容易得出了:(此处线搜索会在后面提到)

\\begin{align}已知&迭代的终止条件参数\\epsilon。初始迭代点为x_0,重复以下操作:\\\\ &1.计算d_t=-\
abla f(x_t),若||d_t||<\\epsilon,迭代终止\\\\ &2.通过线搜索确定步长\\gamma_t\\\\ &3.通过迭代式x_{t+1}=x_t+\\gamma_t d_t更新得到下一个迭代点 \\end{align}\\\\

当然,假设目标函数在搜索空间上是连续的,则终止条件也可以写成? |x_{t+1}-x_t|<\\epsilon 或者 |f(x_{t+1})-f(x_t)|<\\epsilon?

上述梯度下降法的描述中,线搜索是什么还没有说。其实线搜索是一个和最优化方法捆绑销售的一个概念。你完全可以把线搜索放在梯度下降法中来理解。

我的理解是这样的:当梯度下降发进行到第二步时,更新迭代式f(x_{t+1})=f(x_t)+\\gamma_t d_t 中我们只有 \\gamma_t 不知道其具体的值,所以我们必须得通过某种方法来确定 \\gamma_t 的值,而确定 \\gamma_t 的方法称为线搜索。为什么叫做线索搜呢?个人理解为 \\gamma_t 是正实数,而正实数在三维空间中张成的搜索空间是一条与坐标轴平行的射线。

我们确定 \\gamma_t 的方式有两种:精确线搜索非精确线搜索。精确线搜索的目的是找到 g(\\gamma)=f(x_t+\\gamma d_t)\\gamma\\in R^+ 上的最小值。

如上图,精确线搜得到是一个具体的值,这个值往往可以通过研究 g(\\gamma)=f(x_t+\\gamma d_t) ?在 (0,+\\infty) ?上的极值点来确定。

但是很多时候? g(\\gamma) 的极值点没有解析解,只有数值解,那么为了确定唯一的最小值点?,我们只能遍历? \\gamma 的整个搜索空间,但这会极大提高梯度下降法的时间复杂度,此时精确线搜会让我们的优化算法变得极其低效(比如Python的scipy的优化方法子库,默认使用0.618法进行精确线搜索)。这个时候,就需要使用非精确线搜来确定? \\gamma 。不同于精确线搜索,非精确线搜不要求一定要在每一次迭代中找到那个使得 f(x_{t+1})=f(x_t+\\gamma d_t) ?最小的 \\gamma ?,而是通过某些非精确线搜准则来找到一个接近最佳搜索步长 \\gamma^* ?的步长 \\hat \\gamma ?,这个步长能够使得目标函数在该次迭代中下降和? \\gamma^* 差不多的幅度。

如上图,非精确线搜索确定了 \\hat\\gamma ?的大致区间

其实除了以上两种,还有一种最朴素的方法:固定步长。也就是选取一个不变的量(一般很小)作为 \\gamma ?的值。

其实熟悉机器学习的同学应该发现了,此处的步长和ML中的学习率非常类似,而随着机器学习的发展,业内也提出了一些随着迭代次数动态变化步长的方法,本文就懒得写了=_=了,感兴趣的同学可以看看我之前的拙笔:

锦恢:机器学习笔记:学习率的调整与实现

精确线搜索的方法比较局限,只适用于能够得到? \緻set{\\gamma}{\\arg\\min}f(x_t+\\gamma d_t) 的迭代过程。不过一般的研究都是从简单的函数开始的,继而启发之后的奇思妙想的,对吧?

所以我们可以研究研究简单的函数在梯度下降法中的精确线搜索。下面我们可以研究研究简单的函数正定二次型:

f(x)=\\frac12x^TQx+b^Tx+c\\\\

其中? x 是? n 维列向量, Q ?是实对称正定矩阵, b ?是与? x 维度相同的列向量, c ?是实数。

我们记 g_t=\
abla f(x_t) ?。当我们已经得到 \
abla f(x_t)=Qx_t+b ?时,就可以开始在? d_t=-\
abla f(x_t) 的方向上实施精确线搜索,从而得到最优步长? \\gamma^* 了:

\\begin{aligned}\\gamma^*&=\\arg\\min_{\\gamma}f(x_t+\\gamma d_t)\\\\ &=\\arg\\min_{\\gamma}f(x_t-\\gamma g_t)\\\\ &=\\arg\\min_{\\gamma}\\Big( \\frac12g_t^TQg_t\\gamma^2- g_t^Tg_t\\gamma +f(x_t)\\Big)\\\\ \\end{aligned}\\\\

注意到上述函数是关于 \\gamma ?的二次函数,故最优步长? \\gamma^* 为:

\\gamma^*=\\frac{g_t^T g_t}{g_t^TQg_t}\\\\

因此在对正定二次型做梯度下降时,通过上述上述的精确线搜索得到最优步长后,更新迭代式为:

x_{t+1}=x_t-\\frac{g_t^Tg_t}{g_t^TQg_t}(Qx_t+b)\\\\

那么,对于正定二次型来说,其精确线搜的梯度下降法便得到了:

\\begin{align}已知&迭代的终止条件参数\\epsilon。初始迭代点为x_0,记g_t=\
abla f(x_t),重复以下操作:\\\\ &1.计算d_t=-\
abla f(x_t),若||d_t||<\\epsilon,迭代终止\\\\ &2.计算精确线搜索的步长\\gamma_t=\\frac{g_t^Tg_t}{g_t^TQg_t}\\\\ &3.通过迭代式x_{t+1}=x_t+\\gamma_t d_t更新得到下一个迭代点  \\end{align}\\\\


好吧,让我们假设这个方法能够收敛到真实的全局最小值,且在任意给定的初始迭代点,这个优化方法都能确保迭代序列最终收敛到全局最小值点(也就是梯度下降法具有全局收敛性),我想在下一篇文章中论述梯度下降法的全局收敛性和收敛速率。此处先假设我们的方法可以达到预期的效果。

那我们可以使用Pythonnumpymatplotlib子库来编程实现对正定二次型函数使用精确线搜索的梯度下降法,并将搜索过程可视化:

假设我们需要优化的目标如下:

f(x)=\\frac12x^TQx+b^Tx,Q=\\begin{pmatrix}10&-9\\\\-9&10\\end{pmatrix},b=(4,-15)^T\\\\

先引入需要的库:

import numpy as np
import matplotlib.pyplot as plt

我们需要申明函数中的? Q,b 还有原本的函数? f 和函数梯度 \
abla f ?的映射funcgradient

直接拿之前的作业代码了,懒得把注释写成中文了=_=
Q = np.array([[10, -9], [-9, 10]], dtype="float32")
b = np.array([4, -15], dtype="float32").reshape([-1, 1])
# function and its gradient defined in the question
func = lambda x: 0.5 * np.dot(x.T, np.dot(Q, x)).squeeze() + np.dot(b.T, x).squeeze()
gradient = lambda x: np.dot(Q, x) + b

为了检验迭代点的可靠程度,我们需要先计算出这个二次型的最优点:

x^*=-Q^{-1}b=(5, 6)^T\\\\

于是,我们可以申明这个最优点:

x_0 = np.array([5, 6]).reshape([-1, 1])

然后编写精确线搜的梯度下降法:

# GD algorithm
def gradient_descent(start_point, func, gradient, epsilon=0.01):
    """
    :param start_point: start point of GD
    :param func: map of plain function
    :param gradient: gradient map of plain function
    :param epsilon: threshold to stop the iteration
    :return: converge point, # iterations
    """
    assert isinstance(start_point, np.ndarray)  # assert that input start point is ndarray
    global Q, b, x_0     # claim the global varience
    x_k_1, iter_num, loss = start_point, 0, []
    xs = [x_k_1]

    while True:
        g_k = gradient(x_k_1).reshape([-1, 1])
        if np.sqrt(np.sum(g_k ** 2)) < epsilon:
            break
        alpha_k = np.dot(g_k.T, g_k).squeeze() / (np.dot(g_k.T, np.dot(Q, g_k))).squeeze()
        x_k_2 = x_k_1 - alpha_k * g_k
        iter_num += 1
        xs.append(x_k_2)
        loss.append(float(np.fabs(func(x_k_2) - func(x_0))))
        if np.fabs(func(x_k_2) - func(x_k_1)) < epsilon:
            break
        x_k_1 = x_k_2
    return xs, iter_num, loss

函数准备好后,我们假设此处的迭代初值为? x_0=(4,4)^T ,进行梯度下降法,并可视化迭代过程:

x0 = np.array([4,4], dtype="float32").reshape([-1, 1])
xs, iter_num, loss = gradient_descent(start_point=x0, 
                                     func=func,
                                     gradient=gradient,
                                     epsilon=1e-6)
print(xs[-1])	# last point of the sequence
plt.style.use("seaborn")
plt.figure(figsize=[12, 6])
plt.plot(loss)
plt.xlabel("# iteration", fontsize=12)
plt.ylabel("Loss: $|f(x_k) - f(x^*)|$", fontsize=12)
plt.yscale("log")
plt.show()

out:

[[4.999424]
[5.998852]]

可以看到最终迭代点到达了目标? (5, 6)^T 。当纵坐标取 \\log ?时,收敛速率几乎是线性的。这些都说明了梯度下降法用于优化貌似是可行的,而且还有不错的收敛速率(很快)。

收敛速率定义为? |\\frac{f(x_{k+1})-f(x^*)}{f(x_k)-f(x^*)}| ,其中? x^* 是真实的最优点

但是一切都不能高兴得太早。我们可以多试几组不同的迭代初值,然后看看结果会怎么样。我们再取四个迭代点:? (0,0),(0.4,0),(10,0),(11,0)

# create the list of all starting point x_0
starting_points = [np.array([num, 0]).astype(np.float).reshape([-1, 1]) for num in [0.0, 0.4, 10.0, 11.0]]

plt.figure(dpi=150)

xss = []
# implement GD
for idx, start_point in enumerate(starting_points):
    xs, iter_num, losses = gradient_descent(start_point, func, gradient, epsilon=1e-6)
    target_point = xs[-1]
    xss.append(xs)
    # plot the losses of $|f(x_k) - f(x^*)|$
    plt.plot(np.arange(len(losses)), np.array(losses), label=f"start point: ({start_point[0][0]},{start_point[1][0]})")

    loss = np.fabs(func(target_point) - func(x_0))
    print(f"{idx + 1}: start point:{np.round(start_point, 5).tolist()}, "
          f"point after GD:{np.round(target_point, 5).tolist()}, "
          f"loss:{np.round(loss, 16)}, # iterations:{iter_num}")
    print("-" * 60)

plt.grid(True)
plt.legend()
plt.xlabel("# iteration", fontsize=12)
plt.ylabel("Loss: $|f(x_k) - f(x^*)|$", fontsize=12)
plt.yscale("log")
plt.title("Loss-iteration given to different starting points of GD", fontsize=18)
plt.show()

out:

 1: start point:[[0.0],[0.0]], point after GD:[[4.99855],[5.99826]], loss:2.9518850226e-06, # iterations: 60
 ------------------------------------------------------------
 2: start point:[[0.4],[0.0]], point after GD:[[4.99902],[5.99873]], loss:1.6873629107e-06, # iterations: 42
 ------------------------------------------------------------
 3: start point:[[10.0],[0.0]], point after GD:[[5.0],[6.0]], loss:1.33369e-11, # iterations: 4
 ------------------------------------------------------------
 4: start point:[[11.0],[0.0]], point after GD:[[5.0],[6.0]], loss:0.0, # iterations: 1
 ------------------------------------------------------------

可以看到,虽然对于不同的初值点,其收敛速率都是线性的,但是随着迭代初值的不同,收敛速率不相同。甚至对于? (11,0)^T 来说,直接一步迭代就直接到了最优点。

为了更好地让读者明晓迭代初值对于过程的影响,我们可以把上述过程在二维平面内可视化出来:

plt.figure(dpi=150)
X = np.linspace(-2, 12, 200)
Y = np.linspace(-2, 12, 200)
XX, YY = np.meshgrid(X, Y)
Z = [func(np.array([XX[i, j], YY[i, j]], dtype="float32").reshape([-1, 1])).tolist() for i in range(200) for j in range(200)]
Z = np.array(Z).reshape([200, 200])
plt.contourf(XX, YY, Z, cmap=plt.cm.BuGn)

plt.annotate(f"$(5.0, 6.0)$",
                 xy=(5, 6),
                 xytext=(5 - 2, 6 + 2),
                 arrowprops={
                     "color" : "black",
                     "shrink" : 0.1,
                     "width" : 0.6
                 })

# plot the scatter
for idx, start_point in enumerate(starting_points):
    xx = [xss[idx][i][0] for i, _ in enumerate(xss[idx])]
    yy = [xss[idx][i][1] for i, _ in enumerate(xss[idx])]
    plt.plot(xx, yy, "o--", label=f"start point: ({start_point[0][0]},{start_point[1][0]})")
    # add some tips for start point
    plt.annotate(f"$({start_point[0][0]},{start_point[1][0]})$",
                 xy=(start_point[0][0], start_point[1][0]),
                 xytext=(start_point[0][0] - 1.5, start_point[1][0] + idx + 2),
                 arrowprops={
                     "color" : "black",
                     "shrink" : 0.1,
                     "width" : 0.6
                 })

plt.grid(True)
plt.title("Line Search For Two-dimensional Diagrams", fontsize=18)
plt.xlabel("$x_1$", fontsize=12)
plt.ylabel("$x_2$", fontsize=12)
plt.legend()
plt.show()

out:

可以看到靠近椭圆(等高线是一个椭圆族)的? (0,0) 和? (0.4,0) 是以锯齿状的轨迹蛇形靠近最优点的,而? (10,0)(11,0) ?则是几乎一步就跳到了最优点旁边。这张图就很好解释了为什么四个迭代点的迭代步数相差那么大了。

事实上,从我们最开始推导梯度下降法时,我们在某一迭代点处选择最优的下降方向就有一定的问题:我们只追求了 |\\frac{\\partial f}{\\partial \\gamma}| 的最大,也就是该点下降“最陡”的方向,但是最陡可不意味着一定能下降得最多,毕竟所谓的“最陡”也只是 x_k 这一点的小领域内的最陡,超出这个小领域可就不生效了。而且加上精确线搜的要求,使得整个算法变得很不灵活,因为程序会每步都强行找到 g(\\gamma)=f(x_k+\\gamma d_t) 的最小值。这也就使得精准线搜索的梯度下降法在一些稍显复杂的函数优化问题上会迭代非常多的步骤才能找到最优点,甚至有时还找不到。

比如还是拿简单的二次型来说,随着条件数(条件数 \\kappa 大小为矩阵 Q 的最大特征值与最小特征值的比值)的增大,等高线的椭圆族会越来越扁,那么靠近椭圆长轴的迭代初值迭代到最优点会更加困难;或者说,精确线搜的梯度下降法的迭代次数会对迭代初值的选取越来越敏感。这可不是我们希望的,毕竟实际工程中,迭代点的选取很多情况下都是随机的。

读者可是尝试修改上述二次型的 Q 的条件数 \\kappa 的大小,看看会有什么变化

既然梯度下降法并不是下降幅度最大的方法,那么很多时候我们也没有必要花大力气把最优的迭代步长找到,找到一个差不多的就行。于是乎,引出下面的非精确线搜。


之前的精确线搜索就是解决单变量问题

g(\\gamma)=f(x_k+\\gamma d_k)\\\\ 的精确极小值点。

这么做不仅计算量大,而且很多时候过于精确的迭代过程也没有必要。因此,我们可以在保证函数下降的前提下放宽对? \\gamma_k 的要求,从而降低算法的时间复杂度。

基本思路:通过迭代点处引出的两条直线来约束一段可供?取值的区间,具体可以看如下的图:

(0,f(x_k)) 处引出的两条射线,我们希望我们选取的 \\gamma_k 于原单值函数上的映射值位于 \\gamma_k 在这两条直线上的映射值之间,由是构成它们约束的区间 [b,c] ,那么这一步我们要寻找的步长 \\gamma_k 就位于 [b,c] 之间。

这两条线的构成的约束也很好写,设 \\varphi(\\gamma)=f(x_k+\\gamma d_k) ,则上述两条线的约束可写成:

\\begin{align}\\varphi(\\gamma_k)&\\le \\varphi(0)+\\rho\\gamma_k\\varphi'(0)\\quad\\quad\\quad\\quad\\ \\ ①\\\\ \\varphi(\\gamma_k)&\\ge \\varphi(0)+(1-\\rho)\\gamma_k\\varphi'(0)\\quad\\quad② \\end{align}\\\\ 其中 0<\\rho<\\frac12 .

结合上图可知,满足①式的 \\gamma_k 构成区间 (0, c] ,而满足②式的 \\gamma_k 构成区间 [b,a] ,因此两个式子构成的约束为 \\gamma_k\\in[b,c]

其实取这两条直线构成约束的原因也很简单:

  • ①式保证了取到的步长能够 f(x_{k+1})<f(x_k) 成立,也就是保证了充分的下降条件。
  • ②式保证了取到的步长不会特别小,过小的步长会使得 f(x_{k+1})\\approx f(x_k) ,从而该步迭代失去了意义。

于是,我们可以根据①②式得到 Goldstein准则非精确先搜索算法

\\begin{align}1.&选取初始数据,在初始搜索区间[0,\\sup(\\gamma)]中选取初始点\\gamma_0,搜索区间[a_0,b_0]\\\\ &计算\\varphi(0),\\varphi'(0),给出\\rho\\in(0,\\frac12), t>1, k=0.\\\\ 2.&若\\gamma_k满足①式,则转第3步;\\\\ &否则令a_{k+1}=a_k,b_{k+1}=\\gamma_k,转第4步.\\\\ 3.&若\\gamma_k满足②式,则输出\\gamma_k,结束迭代;\\\\ &否则令a_{k+1}=\\gamma_k,b_{k+1}=b_k.\\\\ &若b_{k+1}<\\sup(\\gamma),转第4步;否则,令\\gamma_{k+1}=t\\gamma_k,k=k+1,转第2步.\\\\ 4.&令\\gamma_{k+1}=\\frac{a_{k+1}+b_{k+1}}{2},k=k+1,转第2步  \\end{align}\\\\

算法本身就是通过二分法来搜寻


Goldstein准则有一个很大问题,就是其约束的区间内可能没有我们最终想要找的最优点。

此处的α就是下面的γ


还是刚才那张图,极小值点 \\gamma^* ?在? [e,b] 之间,但是该步确定的区间却为 [b,c] ?,很显然 \\gamma^*\
ot\\in[b,c] ?。为了克服Goldstein算法的缺点,Wolfe提出了使用以下的条件来代替Goldstein中的②式:

g_{k+1}^Td_k\\ge \\sigma g_k^T d_k,\\sigma\\in(\\rho,1)\\\\ 也就是

\\varphi'(\\gamma_k)\\ge \\sigma \\varphi'(0),\\sigma\\in(\\rho,1)\\\\

几何解释:上述条件刻画了在可接受点处切线的斜率? \\varphi'(\\gamma_k) 大于或者等于初始斜率的? \\sigma 倍(注意初始斜率小于0)。在图中,这个切点与起始点都在极值点的同侧,因此这个条件直观上可以保证将极值点包裹在约束的区间内。这个条件也叫作曲率条件。

因此,我们得到了Wolfe准则

\\begin{align}\\varphi(\\gamma_k)&\\le \\varphi(0)+\\rho\\gamma_k\\varphi'(0)\\quad ③\\\\ \\varphi'(\\gamma_k)&\\ge \\sigma\\varphi'(0)\\quad\\quad\\quad\\quad\\quad ④ \\end{align}\\\\ 应该指出,由于? \\sigma\\varphi(0)\\le\\varphi'(\\gamma_k) 且? \\sigma\\varphi'(0)<0 ,而精确线搜索的 \\gamma_k ?满足? \\varphi'(\\gamma_k)=0 ,所以Wolfe准则实际上是对精确线搜索的近似。但是需要注意的是,既然Wolfe准则是对精确线搜索的近似,我们希望搜索出的? \\gamma_k 满足如下:

\\sigma\\varphi(0)\\le\\varphi'(\\gamma_k)<0\\\\ 这样做的话当? \\sigma\	o0 时,根据夹逼准则,就会有 \\varphi'(\\gamma_k)\	o0 ?,这样就满足真正的近似了。而我们之前的Wolfe准则得到?不一定小于0.

而满足上述更强的约束条件的准则就是强Wolfe准则。


强Wolfe准则在Wolfe准则的基础上将? \\varphi'(\\gamma_k) 约束到小于0,以确保完成真正的对精确线搜索的近似:

\\begin{align}\\varphi(\\gamma_k)&\\le\\varphi(0)+\\rho\\gamma_k\\varphi'(0)\\quad⑤\\\\ |\\varphi'(\\gamma_k)|&\\le\\sigma|\\varphi'(0)|\\quad\\quad\\quad\\quad\\ \\ ⑥ \\end{align}\\\\ 其中 0<\\rho<\\sigma<1 ?.

我们注意到 \\sigma ?的大小在一定程度上决定了搜索出来的 \\gamma_k ?离极值点? \\gamma^* 有多近。? \\sigma 越小,搜索出的? \\gamma_k 越精准,但是计算量更大(因为? \\sigma 越小,符合要求的 \\gamma ?组成的区间也会越小,搜索目标小区间当然比搜索大的更加费时)。因此,强Wolfe准则的?不能取得太小,否则强Wolfe准则下的非精确线搜索不就和精确线搜索没有区别了吗?

一般来说,会取? \\rho=0.1,\\sigma\\in[0.6, 0.8] .


\\begin{align}1.&选取初始数据。给定初始搜索区间[0,\\gamma_\	ext{max}],确定参数\\rho\\in(0,\\frac12)和\\sigma\\in(\\rho,1).\\\\ &令\\gamma_1=0,\\gamma_2=\\gamma_\	ext{max},计算\\varphi_1=f(x_k),\\varphi_1'=g(x_k)^Td_k.取\\gamma\\in(0,\\gamma_2).\\\\ 2.&计算\\varphi=\\varphi(\\gamma)=f(x_k+\\gamma d_k).若\\varphi(\\gamma)-\\varphi_1\\le\\rho\\gamma\\varphi_1',转第3步.\\\\ &否则,由两点二次插值公式计算\\bar{\\gamma}=\\gamma_1+\\frac{\\gamma-\\gamma_1}{2(1+\\frac{\\varphi_1-\\varphi}{(\\gamma-\\gamma_1)\\varphi_1'})}.\\\\ &令\\gamma_2=\\gamma,\\gamma=\\bar{\\gamma}.转第2步.\\\\ 3.&计算\\varphi'=\\varphi(\\gamma)=g(x_k+\\gamma d_k)^Td_k.若\\varphi'\\ge\\sigma\\varphi_1',则令\\gamma_k=\\gamma,输出\\gamma_k,停止迭代;\\\\ &否则,由两点二次插值公式计算\\bar{\\gamma}=\\gamma+\\frac{(\\gamma-\\gamma_1)\\varphi'}{\\varphi_1'-\\varphi'}.\\\\ &令\\gamma_1=\\gamma,\\varphi_1=\\varphi, \\varphi_1'=\\varphi',\\gamma=\\bar{\\gamma},转第2步. \\end{align}\\\\


下面直接调用Python的scipy.optimize子库来实现强Wolfe准则:

def gradient_descent_wolfe(start_point, func, gradient, epsilon=1e-6):
    """
    :param start_point: start point of GD
    :param func: map of plain function
    :param gradient: gradient map of plain function
    :param epsilon: threshold to stop the iteration
    :return: converge point, # iterations
    """
    assert isinstance(start_point, np.ndarray)  # assert that input start point is ndarray
    global Q, b, x_0  # claim the global varience
    x_k_1, iter_num, loss = start_point, 0, []
    xs = [x_k_1]

    while True:
        g_k = gradient(x_k_1).reshape([-1, 1])
        if np.sqrt(np.sum(g_k ** 2)) < epsilon:
            break
        alpha_k = linesearch.line_search_wolfe2(f=func,
                                                myfprime=lambda x: np.reshape(np.dot(Q, x) + b, [1, -1]),
                                                xk=x_k_1,
                                                pk=-g_k)[0]
        if alpha_k == None:
            break
        elif isinstance(alpha_k, float):
            alpha_k = alpha_k
        else:
            alpha_k = alpha_k.squeeze()

        x_k_2 = x_k_1 - alpha_k * g_k
        iter_num += 1
        xs.append(x_k_2)
        loss.append(float(np.fabs(func(x_k_2) - func(x_0))))
        if np.fabs(func(x_k_2) - func(x_k_1)) < epsilon:
            break
        x_k_1 = x_k_2
    return xs, iter_num, loss
scipy.optimize封装了许多最优化中的算法,比如Wolfe非精确线搜索算法,后面的共轭梯度法都有对应的API。不了解的同学,可以去看看源代码了解一下。

对于程序的这个片段:

        if alpha_k == None:
            break
        elif isinstance(alpha_k, float):
            alpha_k = alpha_k
        else:
            alpha_k = alpha_k.squeeze()

稍作说明。在梯度下降法实施的过程中,随着迭代点逐步收敛到最优点,为了保证函数下降的可行的步长 \\gamma 组成的区间会越来越小。因此,在迭代的结尾时,强Wolfe算法不一定能够找到可行的 \\gamma ,也就是算法无法收敛,如果算法无法收敛,则alpha_k==None。为了程序的鲁棒性,我们需要判断一下,如果alpha_k==None,则说明迭代到末尾了,直接break就完事了。

out:

[[4.9999986][5.999999 ]]
强Wolfe准则非精确线搜的梯度下降法的下降曲线

可以看到非精确线搜刚开始貌似下降缓慢,但整体还是保证了纵坐标取 \\log 后的线性下降速率。

同上,使用 (0,0),(0.4,0),(10,0)(11,0) 作为四个迭代初值,对这四个迭代初值使用强Wolfe非精确线搜索的梯度下降,打印结果,并可视化:

# create the list of all starting point x_0
starting_points = [np.array([num, 0]).astype(np.float).reshape([-1, 1]) for num in [0.0, 0.4, 10.0, 11.0]]

plt.figure(dpi=150)

xss = []
# implement GD
for idx, start_point in enumerate(starting_points):
    xs, iter_num, losses = gradient_descent_wolfe(start_point, func, gradient, epsilon=1e-6)
    target_point = xs[-1]
    xss.append(xs)
    # plot the losses of $|f(x_k) - f(x^*)|$
    plt.plot(np.arange(len(losses)), np.array(losses), label=f"start point: ({start_point[0][0]},{start_point[1][0]})")

    loss = np.fabs(func(target_point) - func(x_0))
    print(f"{idx + 1}: start point:{np.round(start_point, 5).tolist()}, "
          f"point after GD:{np.round(target_point, 5).tolist()}, "
          f"loss:{np.round(loss, 16)}, # iterations:{iter_num}")
    print("-" * 60)

plt.grid(True)
plt.legend()
plt.xlabel("# iteration", fontsize=12)
plt.ylabel("Loss: $|f(x_k) - f(x^*)|$", fontsize=12)
plt.yscale("log")
plt.title("Loss-iteration given to different starting points of GD", fontsize=18)
plt.show()

out:

1: start point:[[0.0],[0.0]], point after GD:[[4.99855],[5.99826]], loss:2.9518850226e-06, # iterations: 60
------------------------------------------------------------
2: start point:[[0.4],[0.0]], point after GD:[[4.99902],[5.99873]], loss:1.6873629107e-06, # iterations: 42
------------------------------------------------------------
3: start point:[[10.0],[0.0]], point after GD:[[5.0],[6.0]], loss:0.0, # iterations: 3
------------------------------------------------------------
4: start point:[[11.0],[0.0]], point after GD:[[5.0],[6.0]], loss:0.0, # iterations: 1
------------------------------------------------------------
plt.figure(dpi=150)
X = np.linspace(-2, 12, 200)
Y = np.linspace(-2, 12, 200)
XX, YY = np.meshgrid(X, Y)
Z = [func(np.array([XX[i, j], YY[i, j]], dtype="float32").reshape([-1, 1])).tolist() for i in range(200) for j in range(200)]
Z = np.array(Z).reshape([200, 200])
plt.contourf(XX, YY, Z, cmap=plt.cm.BuGn)

plt.annotate(f"$(5.0, 6.0)$",
                 xy=(5, 6),
                 xytext=(5 - 2, 6 + 2),
                 arrowprops={
                     "color" : "black",
                     "shrink" : 0.1,
                     "width" : 0.6
                 })

# plot the scatter
for idx, start_point in enumerate(starting_points):
    xx = [xss[idx][i][0] for i, _ in enumerate(xss[idx])]
    yy = [xss[idx][i][1] for i, _ in enumerate(xss[idx])]
    plt.plot(xx, yy, "o--", label=f"start point: ({start_point[0][0]},{start_point[1][0]})")
    # add some tips for start point
    plt.annotate(f"$({start_point[0][0]},{start_point[1][0]})$",
                 xy=(start_point[0][0], start_point[1][0]),
                 xytext=(start_point[0][0] - 1.5, start_point[1][0] + idx + 2),
                 arrowprops={
                     "color" : "black",
                     "shrink" : 0.1,
                     "width" : 0.6
                 })

plt.grid(True)
plt.title("Line Search For Two-dimensional Diagrams", fontsize=18)
plt.xlabel("$x_1$", fontsize=12)
plt.ylabel("$x_2$", fontsize=12)
plt.legend()
plt.show()

to be continued...


下一章传送门:

锦恢:最优化方法复习笔记(二)梯度下降法的全局收敛与收敛速率

关于我们

北京某某塑料板材有限公司

启航娱乐环保设计研发站成立于1970年,公司专业提供环保设备研发设计,环保设备销售等启航注册,登录,...

在线咨询在线咨询
咨询热线 020-88888888


返回顶部

平台注册入口