美文网首页
不只是线性回归(1):稳健回归

不只是线性回归(1):稳健回归

作者: uglybachelor | 来源:发表于2018-08-30 15:53 被阅读344次

Intro

线性回归(Linear Regression)是机器学习的基本方式,但为了提升其性能,人们发明了无数优化方式。这个“不只是线性回归”系列就是为了记录我在日常的学习中发现的,不只是简单的线性回归的算法、优化方式、数学原理等。

1. 稳健回归(Robust Regression)

稳健回归,顾名思义就是“稳健的”线性回归。它主要解决了一般线性回归受离群值(outliers)的问题,而这个问题主要体现在回归模型中使用的最小二乘法实现。

1.1 最小二乘法的问题

最小二乘法,是通过最小化误差(error)的平方和来寻找最佳回归函数的方法。它的本质是无偏估计,因此离群值的存在对它的有效性会有非常大的影响。

这个网址提供了一个小工具,可以非常方便的看到离群值对最小二乘法的巨大影响。可以看到图1中有一个60个数据点的数据集,并绘制出了一条蓝色的回归直线。在图2中,只是添加了三个离群值(右下角),就直接将回归结果的相关系数从0.77拉低到了0.43。

ols_1.png

图1:无离群值的OLS

ols_2.png

图2:添加离群值后的OLS

稳健回归,就非常好的解决了上面的问题。

1.2 对离群值的容忍度(Breaking Point)

稳健回归对离群值的处理基于一个可设定的参数:容忍度。这个参数决定了模型会将哪些离群值剔除出训练数据。在下面介绍的算法中,都可以找到相应的此参数。

1.3 RANSAC - 随机采样一致性算法

RANSAC算法其实是一种重采样的技术,它通过多次随机采样,得到更准确的剔除离群值影响的模型。它的一种常见计算步骤如下:

  • 随机选择n个样本点(n是人为指定的模型所需最小样本点数量);
  • 根据这些样本得出回归模型;
  • 根据上一步得到的模型计算所有样本点的残差(residual),将残差小于预设残差阈值的点归为inlier,其余是outlier;
  • 判断inlier数量是否达到预设的样本数阈值,如果达到则说明模型足够合理,如果未达到则重复上述步骤。

从上面的算法步骤就能看出,RANSAC算法的有效性很大程度上取决于迭代次数,但它大部分时候还是可以得到一个不错的结果。

下面是用 sklearn 库的 RANSACRegressor 类实现的一个代码示例。


# -*- coding: utf-8 -*-

# 引入所需库
import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression, RANSACRegressor
from sklearn import datasets
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt

# 借用Boston Housing的数据
data = datasets.load_boston()

df = pd.DataFrame(data.data, columns=data.feature_names)

# 选择LSTAT这个特征作为示例
X = df['LSTAT'].values.reshape(-1, 1)
y = data.target

X_train, X_test, y_train, y_test = train_test_split(X, y)

# 普通线性回归
lin_model = LinearRegression()
lin_model.fit(X_train, y_train)
lin_y_pred = lin_model.predict(X_test)

# RANSAC回归
ran_model = RANSACRegressor()
ran_model.fit(X_train, y_train)
ran_y_pred = ran_model.predict(X_test)
inlier_mask = ran_model.inlier_mask_
outlier_mask = np.logical_not(inlier_mask)

# 评价两个模型的效果
plt.figure(figsize=(15,10))

plt.scatter(X_train[inlier_mask], y_train[inlier_mask], c='green', label='Inliers')
plt.scatter(X_train[outlier_mask], y_train[outlier_mask], c='red', label='Outliers')
plt.plot(X_test, lin_y_pred, '-k', label='LR')
plt.plot(X_test, ran_y_pred, '-b', label='RANSAC')
plt.legend(loc='upper right')
plt.show()

最后绘制出的图表如下,可以看出RANSAC模型得出的结果会更加精确且成功排除了大量离群值。

ran_1.png
图3:RANSAC模型与普通线性回归对比

Summary

其实稳健回归还有很多其他的模型,如提尔森回归(Theil-sen)等。
它们各有各的适用范围,例如上面的提尔森回归据说更适合多维的回归(我并没有自己研究过...)。

相关文章

  • 不只是线性回归(1):稳健回归

    Intro 线性回归(Linear Regression)是机器学习的基本方式,但为了提升其性能,人们发明了无数优...

  • 线性回归模型

    参考:1.使用Python进行线性回归2.python机器学习:多元线性回归3.线性回归概念 线性回归模型是线性模...

  • 回归的分类

    一、回归可以分为以下几类 1.线性回归 2.非线性回归 3.逻辑回归 二、回归的概念 1.线性回归 可以简单理解为...

  • 算法概述-02

    1.逻辑回归和线性回归的联系和区别: 逻辑回归和线性回归的都是广义的线性回归。 线性回归是根据最小二乘法来建模,逻...

  • 统计学习基础复习浓缩版

    1.简单线性回归 2.多元线性回归 3.多项式回归 4.广义线性回归(含逻辑斯谛回归) 广义线性回归模型通过拟合响...

  • 初始线性回归 - 正规方程 - 梯度下降法 - 岭回归

    一、初始线性回归: 1、线性回归的定义:线性回归(Linear regression)是利用回归方程(函数)对一个...

  • 从回归到临床模型(一)

    一.回归基础知识 二.线性回归 1.拟合线性模型 2.简单线性模型 3.多项式回归 4.多元线性回归 5.回归诊断...

  • 机器学习-10 线性回归及其相关算法

    返回主页 本节讨论四个内容:1、线性回归2、多重共线性问题3、岭回归4、局部加权线性回归 线性回归(Linear ...

  • 3 线性回归算法

    线性回归分为: 简单线性回归:特征数量只有一个。 多元线性回归:特征数量有多个。 1 简单线性回归 寻找一条直线,...

  • 线性回归大家族

    目录 1、线性回归大家族谱 2、总结 1、线性回归家族谱 2、总结:本文中,大家学习了多元线性回归,岭回归,Las...

网友评论

      本文标题:不只是线性回归(1):稳健回归

      本文链接:https://www.haomeiwen.com/subject/mlcdwftx.html