python实现梯度下降法

作者: __倔强的贝吉塔 | 来源:发表于2019-08-22 22:07 被阅读1次

梯度下降法

梯度定义

梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。
<p align="right">--------百度百科</p>

对于f(x)=2x来说,其梯度\nabla f(x)为:
\nabla f(x)=\dfrac{df(x)}{dx}=2
对于f(x,y)=x^2+2y来说,其梯度\nabla f(x,y)为:
\nabla f(x,y)=\left(\dfrac{\partial f}{\partial x},\dfrac{\partial f}{\partial y}\right )=(2x,2)

梯度下降法思路

因为梯度是函数上升最快的方向,所以如果我们要寻找函数的最小值,只需沿着梯度的反方向寻找即可。这里以f(x)=2x为例,简述梯度下降法实现的大体步骤:

  1. 确定变量的初始点x_0,从初始点开始一步步向函数最小值逼近。
  2. 求函数梯度,然后求梯度的反向,将变量的初始点代入,确定变量变化的方向:-\nabla f(x_0);用求得的梯度向量(变量变化的方向)乘以学习率\alpha (变量变化的步长)得到一个新的向量;变量的初始点加上求得的新向量,到达下一个点。
    x = x_0 - \alpha \nabla f(x_0)
  3. 判断此时函数值的变化量是否满足精度要求。定义一个我们认为满足要求的精度p_0;用上一个点的函数值减去当前点的函数值,得到此时函数值变化量的精度值p(可以近似认为p为损失函数);判断p<p_0是否成立。不成立则反复执行步骤2、3。 \begin{cases}p = f(x)-f(x_0)\\p < p_0\end{cases}

但是梯度下降法对初始点的选取要求比较高,选取不当容易陷入极小值(局部最优解)。

梯度下降法的简单应用

梯度下降法求二维曲线的最小值

下图为梯度下降法求曲线y=x^2+2x+5最小值的结果图,左图红色的点为求解过程中的过程点,右图为求解过程中精度的变化(损失函数值的变化),代码见附录。

梯度下降法求二维曲线的最小值

梯度下降法求三维曲面的最小值

下图为梯度下降法求曲面z=\sqrt{x^2+y^2}最小值的结果图,图中红色的点为求解过程中的过程点,代码见附录。

梯度下降法求三维曲面的最小值

代码附录

# -*- encoding=utf-8 -*-
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.animation as aplt
from mpl_toolkits.mplot3d.axes3d import Axes3D
import sympy 

class gradientDescent(object):
    def init2D(self,vector:float,precision:float,startPoint:float):
    """
    vector:学习率
    precision:精度
    startPoint:起始点
    """
        self.vector = vector
        self.precision = precision
        self.startPoint = startPoint
        self.startPrecision = precision + 1

    def init3D(self,vector:float,precision:float,startVar1Point:float,startVar2Point:float):
    """
    vector:学习率
    precision:精度
    startVar1Point:变量1的起始位置
    startVar2Point:变量2的起始位置
    """
        self.vector = vector
        self.precision = precision
        self.startVar1Point = startVar1Point
        self.startVar2Point = startVar2Point
        self.startPrecision = precision + 1

    def singleVar2D(self, func:str, var:str):
        grad = sympy.diff(func, var)
        grad = str(grad)
        xpoint = []
        ypoint = []
        errors = []
        x = self.startPoint
        while self.startPrecision > self.precision:
            y = eval(func)
            xpoint.append(x)
            ypoint.append(y)
            x1 = x - self.vector*eval(grad)
            x = x1
            y1 = eval(func)
            self.startPrecision = y - y1
            errors.append(self.startPrecision)
        xpoint.append(x)
        ypoint.append(y)
        xlen = len(xpoint)
        return [xpoint,ypoint,errors,xlen]
        
    def doubleVar3D(self, func:str, var1:str, var2:str):
        var1Grad = sympy.diff(func, var1)
        var1Grad = str(var1Grad)
        var1Grad = var1Grad.replace("sqrt","np.sqrt")
        var2Grad = sympy.diff(func, var2)
        var2Grad = str(var2Grad)
        var2Grad = var2Grad.replace("sqrt","np.sqrt")
        func = func.replace("sqrt","np.sqrt")
        xpoint = []
        ypoint = []
        zpoint = []
        errors = []
        x = self.startVar1Point
        y = self.startVar2Point
        while self.startPrecision > self.precision:
            z = eval(func)
            xpoint.append(x)
            ypoint.append(y)
            zpoint.append(z)
            x1 = x - self.vector*eval(var1Grad)
            y1 = y - self.vector*eval(var2Grad)
            x = x1
            y = y1
            z1 = eval(func)
            self.startPrecision = z - z1
            errors.append(self.startPrecision)
        xpoint.append(x)
        ypoint.append(y)
        zpoint.append(z)
        xlen = len(xpoint)
        return [xpoint,ypoint,zpoint,errors,xlen]


if __name__ == '__main__':
            xData = np.arange(-100,100,0.1)
            yData = xData**2 + 2*xData + 5
            vector=0.2
            precision=10e-6
            startPoint=-100
            x = sympy.symbols("x")
            func = "x**2+2*x+5"
            gradient_descent = gradientDescent()
            gradient_descent.init2D(vector,precision,startPoint)
            [xpoint,ypoint,errors,xlen] = gradient_descent.singleVar2D(func,x)        
            fig,ax = plt.subplots(figsize=(12,8),ncols=2,nrows=1)
            for i in range(xlen):
                ax[0].cla()
                ax[0].plot(xData,yData,color="green",label="$y=x^2+2x+5$")
                ax[0].scatter(xpoint[i],ypoint[i],color="red",label="process point")
                plt.pause(0.1)
            ax[0].legend(loc = "best")
            ax[1].plot(errors,label="Loss curve")
            ax[1].legend(loc = "best")
            plt.pause(0.1)
            plt.show()
            # =======================================================================
            xData = np.arange(-100,100,0.1)
            yData = np.arange(-100,100,0.1)
            X,Y = np.meshgrid(xData,yData)
            # z = sqrt(x^2+y^2)
            Z = np.sqrt(X**2+Y**2)
            x = sympy.symbols("x")
            y = sympy.symbols("y")
            func = "sqrt(x**2+y**2)"
            vector=0.2
            precision=10e-6
            startVar1Point=100
            startVar2Point=-100           
            gradient_descent = gradientDescent()
            gradient_descent.init3D(vector, precision, startVar1Point, startVar2Point)
            [xpoint,ypoint,zpoint,errors,xlen] = gradient_descent.doubleVar3D(func,x,y)        
            fig = plt.figure()
            ax = Axes3D(fig)
            surf = ax.plot_surface(X,Y,Z,label="$z=\sqrt{x^2+y^2}$")
            ax.scatter(xpoint,ypoint,zpoint,color="red",label="process point")
            # 解决标签报错,不显示问题
            surf._facecolors2d=surf._facecolors3d
            surf._edgecolors2d=surf._edgecolors3d
            ax.legend()
            plt.show()

相关文章

  • Python梯度下降法

    本文主要讲解梯度下降算法,以及Python的实现一个简单的例子 梯度下降法又称为最速下降法,是 1847 年有数学...

  • 最速梯度下降

    梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的...

  • 2020-08-19--梯度下降法01

    梯度下降法简介 多元线性回归中的梯度下降法 随机梯度下降法 梯度下降法 的调试 1.梯度下降法简介 不是一个机器学...

  • python实现梯度下降法

    梯度下降法 梯度定义 梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该...

  • 感知机模型(Perceptron)的收敛性解读 | 统计学习方法

    Python复现,使用了随机梯度下降法,梯度下降法,adagrad和对偶形式四种算法: 舟晓南:感知机模型pyth...

  • PyTorch学习笔记2 - 梯度下降

    1 在numpy和pytorch实现梯度下降法(线性回归) 梯度下降法的一般步骤为:(1) 设定初始值(2) 求取...

  • 梯度下降法

    梯度下降法 本文主要是为了讲解 梯度下降法 的原理和实践,至于什么是梯度下降法,他能做什么,相信百度一下你就都知道...

  • 机器学习系列(十七)——关于梯度下降法的更多思考

    本篇主要内容是梯度下降法的总结。 梯度的调试 实际编程实现中,梯度下降法很可能因为编写的某个公式的运算错误,导致梯...

  • 学习笔记:两种梯度下降法的思考

    在看梯度下降法的时候最初还真没看明白两种梯度下降法的区别,于是昨天散步的时候认真的思考了一下。 两种梯度下降法分别...

  • 神经网络优化2

    梯度下降 梯度下降法 批梯度下降法(Batch Gradient Descent,BGD)是最常用的梯度下降形式,...

网友评论

    本文标题:python实现梯度下降法

    本文链接:https://www.haomeiwen.com/subject/ycqasctx.html