美文网首页
机器学习笔记4-吴恩达课程-Linear regression

机器学习笔记4-吴恩达课程-Linear regression

作者: 江湾青年 | 来源:发表于2021-07-24 21:47 被阅读0次

Model representation 模型表示

本课主要介绍了监督学习的模型表示,以回归问题作为例子介绍了训练集 的表示以及监督学习的工作流程。

训练集的定义

监督学习是给定一个训练集,然后根据学习算法产生一个假设(hypothesis)h,最后将实际数据应用于h得到想要的输出。对于一元线性回归,h为x的一元线性函数。

监督学习的工作流程

Cost function 代价函数

本课主要介绍了一元线性回归中代价函数的概念和例子。

对于一元线性回归,θ_0和θ_1称为模型参数,不同的参数会得到不同的假设函数。然而怎么样确定最合适的模型参数呢,那么就要引入代价函数的概念。

模型参数

最优的模型应该是让预测值和真实值的差距最小,因此我们用真实值减去预测值的差(误差)的平方和来表示我们需要最小化的目标。再乘以1/2m是为了使该函数求导方便,不影响最后的θ_0和θ_1。因此,这就是一元线性回归中的代价函数。

一元线性回归的代价函数

Cost function intuition I 代价函数的直观例子1

本节课对于没有截距的h(x)(θ_0=0)行了进行了不同θ_1的代入,计算了不同θ_1时J(θ_1)的值。结果表明代价函数J(θ_1)在θ_1=1时取得最小,并且曲线呈现二次函数的形状。

h(x)和J(θ_1)的图像

Cost function intuition II 代价函数的直观例子2

本课主要介绍了有截距的h(x)所对应的代价函数J(θ_0, θ_1)的图像,可以看到随着θ_0和θ_1的变化,J(θ_0, θ_1)的值也发生变化,而且h(x)你和直线也会发生变化,要求得最优的h(x),即是要求最优的θ_0和θ_1,使得J(θ_0, θ_1)最小。

J(θ_0, θ_1)的图像

Gradient descent 梯度下降

相关文章

网友评论

      本文标题:机器学习笔记4-吴恩达课程-Linear regression

      本文链接:https://www.haomeiwen.com/subject/ffipsltx.html