美文网首页
c01_linear models (线性模型)

c01_linear models (线性模型)

作者: 枇杷膏_a56b | 来源:发表于2020-04-25 17:01 被阅读0次

    写在前面

    本文依据python中的机器学习库scikit-learn中的官方教程,并加入自己的理解。
    说明:
    @ 用于注释信息

    • 用于条目信息

    Introduction

    线性模型的一般形式:
    \hat{y}(\omega, x) = \omega_0 + \omega_1x_1 + ... + \omega_px_p
    @ 在上式中,\omega = (\omega_1...\omega_p) 为权重,\omega_0为截距。

    1.1.1. Ordinary Least Squares (一般最小平方)

    1. 线性回归的主要任务是根据样本数据点,拟合一条残差平方和最小的直线,如下图。


    • 用数学表示:
      \min_{i=0}^n = ||X\omega-y||_2^2
      @ X为输入值,\omega为系数矩阵,y为输出真值,线性回归就是要找到一系列\omega,使得上式获得最小值。
    • 代码示例
    >>> from sklearn import linear_model
    >>> reg = linear_model.LinearRegression()
    >>> reg.fit([[0, 0], [1, 1], [2, 2]], [0, 1, 2])
    LinearRegression()
    >>> reg.coef_
    array([0.5, 0.5])
    

    1.1.1.1. Ordinary Least Squares Complexity (一般线性模型的复杂度)

    设X矩阵中的样本数与特征数为n_{samples}, n_{features},且n_{samples}\geq n_{features}则计算复杂度为O(n_{samples}n_{features}^2)

    1.1.2. Ridge regression and classification (岭回归和分类)

    1.1.2.1. Regression (回归)

    岭回归主要是在一般线性回归模型中加入惩罚项,避免受到极端样本值的影响:
    \min_{w} || X w - y||_2^2 + \alpha ||w||_2^2
    @ \alpha \geq 0, 用于控制收敛的程度,超参数。\alpha越大,则受极值的影响越小,共线性越强。
    @ 由于加入了\alpha||w||_2^2,使得||w||不能过大。

    • 示例代码
    >>> from sklearn import linear_model
    >>> reg = linear_model.Ridge(alpha=.5) # 使用岭回归需要设置超参数alpha
    >>> reg.fit([[0, 0], [0, 0], [1, 1]], [0, .1, 1])
    Ridge(alpha=0.5)
    >>> reg.coef_
    array([0.34545455, 0.34545455])
    >>> reg.intercept_
    0.13636...
    

    1.1.2.2. Classification

    • 岭回归中有岭回归分类器 RidgeClassifier
      将输出转换为 {-1, 1} 的输出。
    • 如果为多分类任务,则比较多输出,预测值为输出最高值。
    • 岭回归比逻辑回归快很多:因为只需要计算
      (X^T X)^{-1} X^T 一次。
    • 岭回归有时也被成为最小平方支持向量机(Least Squares Support Vector Machines)
    • 岭回归复杂度与一般回归一致。

    1.1.2.4 Setting the regularization parameter: generalized Cross-Validation

    scikit-learn提供了自动搜索最佳\alpha的功能

    • 示例代码
    >>> import numpy as np
    >>> from sklearn import linear_model
    >>> reg = linear_model.RidgeCV(alphas=np.logspace(-6, 6, 13))
    >>> reg.fit([[0, 0], [0, 0], [1, 1]], [0, .1, 1])
    RidgeCV(alphas=array([1.e-06, 1.e-05, 1.e-04, 1.e-03, 1.e-02, 1.e-01, 1.e+00, 1.e+01,
          1.e+02, 1.e+03, 1.e+04, 1.e+05, 1.e+06]))
    >>> reg.alpha_
    0.01
    
    • 自动搜索参数会触发网格搜索机制 Gridserchcv

    1.1.3. Lasso

    • 用于稀疏权重系数
    • 数学表示:
      \min_{w} { \frac{1}{2n_{\text{samples}}} ||X w - y||_2 ^ 2 + \alpha ||w||_1}
      @ 对于LASSO来说,与岭回归点区别在于正则项点系数不是平方,而是绝对值。
      @ LASSO为L1范数。
    • 示例代码:
    >>> from sklearn import linear_model
    >>> reg = linear_model.Lasso(alpha=0.1)
    >>> reg.fit([[0, 0], [1, 1]], [0, 1])
    Lasso(alpha=0.1)
    >>> reg.predict([[1, 1]])
    array([0.8])
    

    1.1.3.1. Setting regularization parameter

    \alpha参数,控制正则项点程度。

    比较岭回归和LASSO


    @ LASSO比较直,岭回归是曲线。
    @ 说明LASSO优化过程中,使得一部分变为0。岭回归则将部分变点很小。LASSO可以选择有用点特征。

    Lp范数

    ||X||_p = (\sum_{i=1}^n|x_i|^p)^{\frac{1}{p}}

    岭回归与LASSO回归比较

    • 两者使用了不同点正则项


    L0正则

    J(\theta)=MSE(y, \hat{y};\theta)+min\{number-of-non-zero-\theta\}
    \theta的个数尽可能点小即非0\theta个数最小。

    1.1.5. Elastic-Net(弹性网)

    • 同时加入L1和L2正则项。
      \min_{w} { \frac{1}{2n_{\text{samples}}} ||X w - y||_2 ^ 2 + \alpha \rho ||w||_1 + \frac{\alpha(1-\rho)}{2} ||w||_2 ^ 2}
      \rho, \alpha都是超参数。

    1.1.7. Least Angle Regression (LARS)

    • 用于解决高维数据的回归算法。
    • 每一步找到与目的输出关系最大的特征系数。
    • 当多个特征具有相同的关系时,选取系数所表示空间的中间角度。

    LARS优点

    • 当特征数比样本数多时很有效
    • 与其他算法结合很容易,如LASSO

    相关文章

      网友评论

          本文标题:c01_linear models (线性模型)

          本文链接:https://www.haomeiwen.com/subject/vmmaihtx.html