美文网首页工作生活
吴恩达机器学习——单变量线性回归

吴恩达机器学习——单变量线性回归

作者: 糖醋排骨盐酥鸡 | 来源:发表于2019-07-04 15:11 被阅读0次

    第二章讲的是单变量线性回归。
    线性回归很简单,主要讲的是假设函数和代价函数,以及梯度下降算法。
    首先是假设函数,这个是机器学习的核心,所有的算法都是为了求出一个合适的假设函数。
    而为了高效率的求出假设函数,就引出了代价函数这个东西,代价函数的实质就是代价两个字,但预期值和实际值相差最小,就是代价函数最优,也就是假设函数最好的时候。
    梯度下降算法是求代价函数最常用也最通用的方法。
    因为之前学过线性代数和离散数学等科目,所以理解起来还是很容易的。

    相关文章

      网友评论

        本文标题:吴恩达机器学习——单变量线性回归

        本文链接:https://www.haomeiwen.com/subject/ksqrhctx.html