美文网首页
梯度下降

梯度下降

作者: greymonster | 来源:发表于2017-05-07 16:53 被阅读0次

最近在做关于数据的一些东西,就是研究游戏在线人数的变换曲线,看了梯度下降。
  梯度下降的介绍百度一下说的都很好,我也是百度学习的 可以@refer 这篇 http://blog.csdn.net/woxincd/article/details/7040944
  我的理解就是先随意找一个点,然后求出这个点在各个方向的切线,顺着这个方向认为是下降最快的方向,然后根据步长(自己设定的一个值,这里是0.1)调节走的速度。最终找到极值。关键在于迭代,关于迭代,牛顿方法的迭代会更迅速。

下面是我用php写的一个小demo。

预期多元一次方程是 ax1 + bx2 = y , 给定了N组 x 和对应y的值 ,求 a b 分别是多少。
先转换成求极值 => 误差最小。

$dataset = [[1,4],[2,5],[5,1],[4,2]]; //初始的三组x(每组x包括x1 x2)
$dataret = [19,26, 19, 20]; // 对应三组x 的y 值
$expect  = [10, 10]; //随意找到的开始点 这里是指 预测 a = 10 b = 10
$step  = 0.001; //步长
$times = 1000000;
/*
 *梯度下降 * 
 * @auther menmei
 * @date 2017/03/24
 *
 */
/*
 * 梯度下降求多元一次方程的多元参数
 *
 *
 * @param 原始数据 Array
 * @param 原始数据结果 Array
 * @param 初始参数 Arrayθ
 * @param 步长 double
 * @param 循环次数 int
 *
 * @return 参数数组 Arrayθ
 *
 */
function gradientDescent($dataset, $dataret, $expect, $step, $times){
    //check given params
    $setTotal    = count($dataset);
    $paramsTotal = count($dataset[0]);
    if($setTotal < 2 || (count($expect) != $paramsTotal) || count($dataret) != $setTotal )  return False;
    //$deviation = array_fill(0, $paramsTotal, 0);
    for($i = 0; $i < $times; $i ++){
        $h = 0;
        $index = $i % $setTotal;
        for($j = 0; $j < $paramsTotal; $j ++){
            $h += ($expect[$j] * $dataset[$index][$j]);
        }

        $error = $h - $dataret[$index];
        for($k = 0; $k < $paramsTotal; $k ++){
            //这里是关键 这里 $error * $dataset[$index][$k] 是J(θ) 按梯度方向减少的量
            //是对J(θ) 求偏导得到的 => 按梯度每个方向的斜率 *  步长
            $expect[$k] -= $step * $error * $dataset[$index][$k];
        }

        //calculate new deviation
        $deviation = 0 ;
        for($l = 0; $l < $setTotal; $l ++){
            $h = 0;
            for($m = 0; $m < $paramsTotal; $m ++){
                $h += ($expect[$m] * $dataset[$l][$m]);
            }
            $deviation += ($h - $dataret[$l]) * ($h - $dataret[$l]);
        }
        if($deviation < 0.001) break;
    }
    echo "误差是{$deviation}";
    return $expect;
}

/***************** EXAMPLE ******************/
//sample 1
//这里步长设置成 0.1 就会越过最低点 然后继续向上。所以步长选择很 !重 !要 !
$dataset = [[1,4],[2,5],[5,1],[4,2]];
$dataret = [19,26, 19, 20];
$expect  = [10, 10];
$step  = 0.001;
$times = 1000000;

//sample 2
$dataset = [[1, 1, 2], [1, 2, 3], [1, 2, 5], [1, 8, 3], [1, 4, 7]];
$dataret = [13, 19, 27, 31, 39];
$expect = [0, 0, 0];

//sample 3
$dataset = [[1, 2], [2, 3], [2, 5], [8, 3], [4, 7]];
$dataret = [1, 4, 0, 34, 6];
$expect = [0,0];
$ret = gradientDescent($dataset, $dataret, $expect, $step, $times);
var_dump($ret);

相关文章

  • (三)线性回归--梯度下降

    一、梯度下降 二、代码的实现 (一.梯度下降) 导包 构建数据 梯度下降 使用梯度下降,可视化 (二。梯度下降矩阵...

  • 神经网络优化2

    梯度下降 梯度下降法 批梯度下降法(Batch Gradient Descent,BGD)是最常用的梯度下降形式,...

  • 深入浅出--梯度下降法及其实现

    梯度下降的场景假设梯度梯度下降算法的数学解释梯度下降算法的实例梯度下降算法的实现Further reading 本...

  • 机器学习-常用优化方法

    一阶方法:梯度下降、随机梯度下降、mini 随机梯度下降降法。 随机梯度下降不但速度上比原始梯度下降要快,局部最优...

  • ML-梯度下降代码-线性回归为例

    梯度下降代码线性回归为例 bgd 批量梯度下降 sbd 随机梯度下降 mbfd 小批量随机梯度下降

  • 2020-08-19--梯度下降法01

    梯度下降法简介 多元线性回归中的梯度下降法 随机梯度下降法 梯度下降法 的调试 1.梯度下降法简介 不是一个机器学...

  • 机器学习笔记(六)—— 梯度下降

    梯度下降 批量梯度下降(Batch Gradient Descent,BGD) 批量梯度下降法是最原始的形式,它是...

  • 更新权重的方式

    1、SGD 梯度下降(收敛最慢稳定) 梯度下降:+=- * d J() 批量梯度下降:将数据集切分为多批次, 分别...

  • 随机梯度下降法与批量梯度下降法的区别

    批量梯度下降法(batch gradient decent)就是我们平时所说的梯度下降,也就是梯度下降过程中,每次...

  • 梯度下降算法

    1. 三种梯度下降算法: Batch Gradient Descent: 全部样本梯度下降一次,批梯度下降每次更新...

网友评论

      本文标题:梯度下降

      本文链接:https://www.haomeiwen.com/subject/isoutxtx.html