美文网首页
1.3多元线性回归模型

1.3多元线性回归模型

作者: Yuanshuo | 来源:发表于2019-08-06 00:09 被阅读0次
The core values of Chinese socialism

多特征量

多特征量表示

  • n = 表示特征量的数目
  • x^ {(i)} = 第 i 个训练样本的输入特征量
  • x_j^{(i)} = 第 i 个训练样本的第 j 个特征量

多特征量的假设函数

h_{θ}(x) = θ_{0} + θ_{1} x_{1} + θ_{2} x_{2} + … + θ_{n} x_{n}

为方便表示,将 x_{(0)} 的值设为1,所以现在的特征量 x 是一个从0开始标记的 n+1 维的向量:

x = \begin{bmatrix} x_{0} \\ x_{1} \\ x_{2} \\ … \\ x_{n} \end{bmatrix} \in \mathbb{R}^{n+1}

同时把参数看作一个向量:

θ = \begin{bmatrix} θ_{0} \\ θ_{1} \\ θ_{2} \\ … \\ θ_{n} \end{bmatrix} \in \mathbb{R}^{n+1}

所以假设 h_{θ}(x) ,现在可以写成:

h_{θ}(x) = θ_{0} x_{0} + θ_{1} x_{1} + θ_{2} x_{2} + … + θ_{n} x_{n}

等同于:

h_{θ}(x) = θ^{T} x

多特征的梯度下降

假设函数(Hypothesis):

h_{θ}(x) = θ^{T}x = θ_{0} x_{0} + θ_{1} x_{1} + θ_{2} x_{2} + … + θ_{n} x_{n}

参数(Parameters):

θ_{0} θ_{1} θ_{2} … θ_{n}

代价函数(Cost Function):

J(θ_{0},θ_{1},…,θ_{n}) = \frac{1}{2m} \sum_{i=1}^{m} (h_{θ}(x^{(i)}) - y^{(i)})^{2}

梯度下降算法(Gradient descent):

Gradient descent
特征n=1时 特征n>=1时

梯度下降使用技巧1:特征缩放(Feature Scaling)和均值归一化(Mean Normalization)

特征缩放(Feature Scaling)

梯度下降算法中,在有多个特征的情况下,如果能确保这些不同的特征都处在一个相近的范围,这样梯度下降算法就能很快的收敛。
进行特征缩放时,通常的目的时将特征的取值约束到 -1 到 +1 的范围内。

x_1取值远大于x_2 x_1经过缩放后

均值归一化(Mean Normalization)

\frac{x_{n} - μ_{n}}{S_{n}}

μ_{n} 的意思是在训练集中特征 x_n 的平均值,而 S_n 是该特征值的范围。(最大值 - 最小值)

梯度下降实用技巧2:学习速率(Learning Rate)

  • 如何调试(Debugging):如何确定梯度下降是正常工作的。
  • 如何选择学习速率 α :如何选择这个参数保证梯度下降正常工作。

收敛判断

梯度下降算法所做的事情就是找到一个 θ 值,并希望它能最小化代价函数 J_{(θ)}
通常会在梯度下降算法运行时,绘出代价函数 J_{(θ)} 的值。这里 x 轴是表示梯度下降算法的迭代步数:

如果梯度下降算法正常工作,那么每一步迭代之后 J_{(θ)} 都应该下降。

如何选择 α

  • 如果学习速率 α 太小,会遇到收敛速度慢的问题。
  • 如果学习速率 α 太大,代价函数 J_{(θ)} 可能不会在每次迭代都下降,甚至可能不收敛。
    事实在为梯度下降算法选择合适的学习速率时,大致按 3 的倍数来取值。例如:0.001,0.003,0.01,0.03 ...

特征的选择和多项式回归

特征的选择

特征的选择取决于从什么样的角度去审视一个特定的问题,有时通过定义新的特征,会得到一个更好的模型。

多项式回归

如下住房价格的数据集:

为了拟合它,可能会有多个不同的模型去选择。

θ_{0} + θ_{1}x + θ_{2}x^{2} + θ_{3}x^{3}

h_{θ}(x) = θ_{0} + θ_{1}(size) + θ_{2}\sqrt{(size)}

相关文章

  • 矩阵基础12-矩阵技术在机器学习中的应用

    一. 广义逆矩阵和多元线性回归 1.1 广义逆回顾 1.2 多元线性回归模型 1.3 例子 二. 奇异值分解与主成...

  • 1.3多元线性回归模型

    多特征量 多特征量表示 = 表示特征量的数目 = 第 个训练样本的输入特征量 = 第 个训练样本的第 个特征...

  • 「量学堂-6」多元线性回归(上)

    多元线性回归模型 多元性先回归相较于一元线性回归更为泛化,后者可以看做是前者的特例。对于多元线性模型,应变量Y与自...

  • Linear Regression

    在线性回归模型中,我们分为单元线性回归和多元线性回归(Multivariate Linear Regression...

  • 多元线性回归(multiple regression model

    之前学习了单一线性回归,这次主要研究多元线性回归,以及提高多元数据的模型精度的一些方法 1、什么是多元线性回归,我...

  • 线性回归模型

    参考:1.使用Python进行线性回归2.python机器学习:多元线性回归3.线性回归概念 线性回归模型是线性模...

  • 从回归到临床模型(一)

    一.回归基础知识 二.线性回归 1.拟合线性模型 2.简单线性模型 3.多项式回归 4.多元线性回归 5.回归诊断...

  • 机器学习 - 线性回归梯度下降推导

    样本 x 有 m 个属性多元线性回归 线性回归模型函数 模型参数 属性(特征值)列表其中:是线性回归的截距的权重...

  • 第三天 多元线性回归

    多元线性回归 多元线性回归旨在用现有的数据构建两个或多个因变量与一个因变量之间的相关模型 多元线性回归的实现步骤和...

  • Python建模复习:预测型数据挖掘

    第四部分 预测性数据挖掘模型 回归问题:多元线性回归、多元非线性回归、广义线性回归、神经网络 分类问题:决策树、逻...

网友评论

      本文标题:1.3多元线性回归模型

      本文链接:https://www.haomeiwen.com/subject/wlevdctx.html