美文网首页
单变量线性回归和多变量线性回归

单变量线性回归和多变量线性回归

作者: felicity_jn | 来源:发表于2018-11-18 16:21 被阅读0次

1.单变量线性回归


一个例子:当需要预测房价,我们要使用一个数据集,数据集包含俄勒冈州波特兰市的住房价格。在这个数据集中我们假设price只和size这一个特征相关时,这是个监督学习,因为我们的每条数据对于size都有一个“正确答案”。那么让我们预测一个给定size的房子的房价是多少的问题就是一个回归问题。

我们将要用来描述这个回归问题的标记如下:

𝑚 代表训练集中实例的数量

𝑥 代表特征/输入变量

𝑦 代表目标变量/输出变量

(𝑥,𝑦) 代表训练集中的实例

(𝑥(𝑖),𝑦(𝑖)) 代表第𝑖 个观察实例

h 代表学习算法的解决方案或函数也称为假设(hypothesis)

其中h的一种表达的可能为h_{\theta }(x) =\theta _{0} +\theta _{1} x,注意,这里只有一个特征/输入变量,所以称为单变量线性回归问题。

当有m个样本时,

线性回归函数写成:h_{\theta } (x^i )=\theta _{0} +\theta _{1} x^i,其中i=1,2,3,...,m 表示数据集样本的个数。

参数:\theta _{0}, \theta _{1}

代价函数(目标函数)J(\theta _{0}, \theta _{1} )=\frac{1}{2m} \sum\nolimits_{i=1}^m(h_{\theta }(x^i) -y^i ) ^2,i=1,2,3,...,m

代价函数选择了误差平方和,误差平方和是大多数问题特别是回归问题的一个合理选择。

目标:minimize_{\theta _{0} ,\theta _{1} } J(\theta _{0} ,\theta _{1} )

下图为\theta _{0} ,\theta _{1} ,J(\theta _{0} ,\theta _{1})的三维等高图:

可以看出存在一个全局最小值

h_{\theta } (x)平面图,J(\theta _{0} ,\theta _{1})的等高图,如下:

2.梯度下降


梯度下降是用来求函数最小值的常用算法,

相关文章

  • 线性回归

    单变量线性回归 多变量线性回归 局限性 梯度下降法 优点 缺点 单变量线性回归 模型线性回归假设数据集中每个yi和...

  • 吴恩达机器学习(第一周)

    1.单变量线性回归(Linear Regression with One Variable) 1.1线性回归算法 ...

  • [线性回归] 多特征线性回归

    1 多特征线性回归 有多个变量的线性回归也叫做多变量线形回归(multivariate linear regres...

  • Machine Learning - Linear Regres

    单变量线性回归 image.png ///////////////////////////////////////...

  • 单变量线性回归和多变量线性回归

    1.单变量线性回归 一个例子:当需要预测房价,我们要使用一个数据集,数据集包含俄勒冈州波特兰市的住房价格。在这个数...

  • 基于pytorch的linear Regression

    线性回归模型 线性回归是分析一个变量与另外一(多)个变量之间关系的方法。因变量是 y,自变量是 x,关系线性:任务...

  • logistics回归分类

    logistics回归分类模型和线性模型的关系非常密切;区分下线性回归模型和线性模型;线性模型:自变量和因变量之间...

  • 线性回归及梯度下降

    线性回归及梯度下降 参考资料:网址 本文会讲到: (1) 线性回归的定义 (2) 单变量线性回归 (3) cost...

  • 第2章 单变量&多变量线性回归

    单变量线性回归 梯度下降法 Gradient descent 用梯度下降法最小化代价函数J 多变量线性回归 mul...

  • (16)多重线性回归分析

    一、多重线性回归分析简介 简单线性回归分析:自变量X =1 个 多重线性回归分析:自变量X >=2 个 多元线性回...

网友评论

      本文标题:单变量线性回归和多变量线性回归

      本文链接:https://www.haomeiwen.com/subject/twegfqtx.html