美文网首页
1.3多元线性回归模型

1.3多元线性回归模型

作者: Yuanshuo | 来源:发表于2019-08-06 00:09 被阅读0次
    The core values of Chinese socialism

    多特征量

    多特征量表示

    • n = 表示特征量的数目
    • x^ {(i)} = 第 i 个训练样本的输入特征量
    • x_j^{(i)} = 第 i 个训练样本的第 j 个特征量

    多特征量的假设函数

    h_{θ}(x) = θ_{0} + θ_{1} x_{1} + θ_{2} x_{2} + … + θ_{n} x_{n}

    为方便表示,将 x_{(0)} 的值设为1,所以现在的特征量 x 是一个从0开始标记的 n+1 维的向量:

    x = \begin{bmatrix} x_{0} \\ x_{1} \\ x_{2} \\ … \\ x_{n} \end{bmatrix} \in \mathbb{R}^{n+1}

    同时把参数看作一个向量:

    θ = \begin{bmatrix} θ_{0} \\ θ_{1} \\ θ_{2} \\ … \\ θ_{n} \end{bmatrix} \in \mathbb{R}^{n+1}

    所以假设 h_{θ}(x) ,现在可以写成:

    h_{θ}(x) = θ_{0} x_{0} + θ_{1} x_{1} + θ_{2} x_{2} + … + θ_{n} x_{n}

    等同于:

    h_{θ}(x) = θ^{T} x

    多特征的梯度下降

    假设函数(Hypothesis):

    h_{θ}(x) = θ^{T}x = θ_{0} x_{0} + θ_{1} x_{1} + θ_{2} x_{2} + … + θ_{n} x_{n}

    参数(Parameters):

    θ_{0} θ_{1} θ_{2} … θ_{n}

    代价函数(Cost Function):

    J(θ_{0},θ_{1},…,θ_{n}) = \frac{1}{2m} \sum_{i=1}^{m} (h_{θ}(x^{(i)}) - y^{(i)})^{2}

    梯度下降算法(Gradient descent):

    Gradient descent
    特征n=1时 特征n>=1时

    梯度下降使用技巧1:特征缩放(Feature Scaling)和均值归一化(Mean Normalization)

    特征缩放(Feature Scaling)

    梯度下降算法中,在有多个特征的情况下,如果能确保这些不同的特征都处在一个相近的范围,这样梯度下降算法就能很快的收敛。
    进行特征缩放时,通常的目的时将特征的取值约束到 -1 到 +1 的范围内。

    x_1取值远大于x_2 x_1经过缩放后

    均值归一化(Mean Normalization)

    \frac{x_{n} - μ_{n}}{S_{n}}

    μ_{n} 的意思是在训练集中特征 x_n 的平均值,而 S_n 是该特征值的范围。(最大值 - 最小值)

    梯度下降实用技巧2:学习速率(Learning Rate)

    • 如何调试(Debugging):如何确定梯度下降是正常工作的。
    • 如何选择学习速率 α :如何选择这个参数保证梯度下降正常工作。

    收敛判断

    梯度下降算法所做的事情就是找到一个 θ 值,并希望它能最小化代价函数 J_{(θ)}
    通常会在梯度下降算法运行时,绘出代价函数 J_{(θ)} 的值。这里 x 轴是表示梯度下降算法的迭代步数:

    如果梯度下降算法正常工作,那么每一步迭代之后 J_{(θ)} 都应该下降。

    如何选择 α

    • 如果学习速率 α 太小,会遇到收敛速度慢的问题。
    • 如果学习速率 α 太大,代价函数 J_{(θ)} 可能不会在每次迭代都下降,甚至可能不收敛。
      事实在为梯度下降算法选择合适的学习速率时,大致按 3 的倍数来取值。例如:0.001,0.003,0.01,0.03 ...

    特征的选择和多项式回归

    特征的选择

    特征的选择取决于从什么样的角度去审视一个特定的问题,有时通过定义新的特征,会得到一个更好的模型。

    多项式回归

    如下住房价格的数据集:

    为了拟合它,可能会有多个不同的模型去选择。

    θ_{0} + θ_{1}x + θ_{2}x^{2} + θ_{3}x^{3}

    h_{θ}(x) = θ_{0} + θ_{1}(size) + θ_{2}\sqrt{(size)}

    相关文章

      网友评论

          本文标题:1.3多元线性回归模型

          本文链接:https://www.haomeiwen.com/subject/wlevdctx.html