美文网首页
5月组队学习03:基于线性模型的方法

5月组队学习03:基于线性模型的方法

作者: flower217 | 来源:发表于2021-05-17 21:58 被阅读0次

Task03:线性模型(3天)

● 理解线性回归

● 掌握主成分分析的异常检测方法

1、引言

真实数据集中不同维度的数据通常具有高度的相关性,这是因为不同的属性往往是由相同的基础过程以密切相关的方式产生的。在古典统计学中,这被称为——回归建模,一种参数化的相关性分析。
一类相关性分析试图通过其他变量预测单独的属性值,另一类方法用一些潜在变量来代表整个数据。前者的代表是 线性回归,后者一个典型的例子是主成分分析。本文将会用这两种典型的线性相关分析方法进行异常检测。
需要明确的是,这里有两个重要的假设:
假设一:近似线性相关假设。线性相关假设是使用两种模型进行异常检测的重要理论基础。
假设二:子空间假设。子空间假设认为数据是镶嵌在低维子空间中的,线性方法的目的是找到合适的低维子空间使得异常点(o)在其中区别于正常点(n)。
基于这两点假设,在异常检测的第一阶段,为了确定特定的模型是否适合特定的数据集,对数据进行探索性和可视化分析是非常关键的。

2、线性回归

在线性回归中,我们假设不同维度的变量具有一定的相关性,并可以通过一个相关系数矩阵进行衡量。因此对于特定的观测值,可以通过线性方程组来建模。在实际应用中,观测值的数量往往远大于数据的维度,导致线性方程组是一个超定方程,不能直接求解。因此需要通过优化的方法,最小化模型预测值与真实数据点的误差。
线性回归是统计学中一个重要的应用,这个重要的应用往往是指通过一系列自变量去预测一个特殊因变量的值。在这种情况下,异常值是根据其他自变量对因变量的影响来定义的,而自变量之间相互关系中的异常则不那么重要。这里的异常点检测主要用于数据降噪,避免异常点的出现对模型性能的影响,因而这里关注的兴趣点主要是正常值(n)。
而我们通常所说的异常检测中并不会对任何变量给与特殊对待,异常值的定义是基于基础数据点的整体分布,这里我们关注的兴趣点主要是异常值(o)。
广义的回归建模只是一种工具,这种工具既可以用来进行数据降噪也可以进行异常点检测。

2.1基于自变量与因变量的线性回归

最小二乘法

最小二乘法.jpg
梯度下降法
(1)设置损失函数:如果把线性回归看作是一个优化问题,那么我们要优化的目标就是损失函数。损失函数是用来衡量样本误差的函数,我们的优化目标是要求得在误差最小的情况下模型参数的值。
损失函数.png
(2)优化算法:使用梯度下降法,将损失函数降到最小值,其原理是沿曲线梯度下降的方向移动,逐渐减少误差至趋近不变。
  • 批量梯度下降
  • 随机梯度下降
  • 小批量梯度下降

3、主成分分析

上一节的最小二乘法试图找到一个与数据具有最佳匹配(d-1)维超平面。主成分分析方法可用于解决这一问题的广义版本。具体来说,它可以找到任意k(k<d)维的最优表示超平面,从而使平方投影误差最小化。
代码:

from pyod.models.pca import PCA
from pyod.utils.data import generate_data, evaluate_print
from pyod.utils.example import visualize

# 生成数据
contamination = 0.1  # percentage of outliers
n_train = 200  # number of training points
n_test = 100  # number of testing points
X_train, y_train, X_test, y_test = generate_data(
    n_train=n_train, n_test=n_test, contamination=contamination)

# 训练PCA
clf_name = 'PCA'
clf = PCA() # n_components默认为全部
clf.fit(X_train)
# 训练集上预测的标签
y_train_pred = clf.labels_  # binary labels (0: inliers, 1: outliers)
y_train_scores = clf.decision_scores_  # raw outlier scores
# 测试集上预测的标签
y_test_pred = clf.predict(X_test)  # outlier labels (0 or 1)
y_test_scores = clf.decision_function(X_test)  # outlier scores

# 评估结果,可视化
print("\nPCA On Training Data:")
evaluate_print(clf_name, y_train, y_train_scores)
print("\nPCA On Test Data:")
evaluate_print(clf_name, y_test, y_test_scores)
visualize(clf_name, X_train, y_train, X_test, y_test, y_train_pred,
              y_test_pred, show_figure=True, save_figure=True)
PCA的训练结果.JPG
PCA在训练集和测试集上的结果(左为真实值,右为预测值).JPG

4、回归分析的局限性

回归分析作为检测离群值的工具有一些局限性。这些缺点中最重要的是在本章的一开始就讨论了,其中探讨了回归分析的数据特定性质。特别是,为了使回归分析技术有效,数据需要高度相关,并沿着低维子空间对齐。当数据不相关,但在某些区域高度聚集时,这种方法可能不会有效。
另一个相关的问题是,数据中的相关性在本质上可能不是全局性的。子空间相关性可能是特定于数据的特定位置的。在这种情况下,由主成分分析发现的全局子空间对于异常检测是次优的。因此,为了创建更一般的局部子空间模型,有时将线性模型与邻近模型结合起来是有用的。

5、总结

真实数据中,数据不同属性之间往往具有显著的相关性。在这种情况下,线性建模可以提供一种有效的工具来从底层数据中移除异常值或者进行异常检测。对于其他基于因变量回归的应用,线性建模是一种工具,去除异常值对于提高此类应用的性能是非常重要的。在大多数情况下,主成分分析提供了去除异常值和进行异常检测最有效的方法,因为它对存在少数异常值的数据更有鲁棒性。

参考链接:https://github.com/datawhalechina/team-learning-data-mining/tree/master/AnomalyDetection

相关文章

  • 5月组队学习03:基于线性模型的方法

    Task03:线性模型(3天) ● 理解线性回归 ● 掌握主成分分析的异常检测方法 1、引言 真实数据集中不同维度...

  • 数据挖掘(异常检测)——相似度

    DataWhale 组队学习 2021.05 组队学习系列笔记四 LOF 方法是一种典型的基于密度的高精度离群点检...

  • 机器学习-聚类

    简介 前面介绍的线性回归,SVM等模型都是基于数据有标签的监督学习方法,本文介绍的聚类方法是属于无标签的无监督学习...

  • 第三章 非线性模型参数估计

    方法——由研究目标和对象决定 1)基于线性化处理的最小二乘法计算直线拟合;估计模型参数全局效果更好2)基于非线性方...

  • 回归与线性对数模型

    回归与线性对数模型可用于拟合所给定的数据集。线性回归方法是利用一条直线模型对数据进行拟合的,可以是基于一个自变量的...

  • 深度学习——线性因子模型

    《深度学习》part3的笔记 线性因子模型是一种最简单的基于潜变量的概率模型;它通过对h的线性变换以及添加噪声来生...

  • 纯numpy动手写K近邻模型

    简单清晰的的基于线性扫描实现的KNN模型

  • Python机器学习之线性模型

    一、线性模型基本概念  线性模型不是指某一个模型,而是一类模型。在机器学习领域,常用的线性模型包括,线性回归、岭回...

  • 创建微分方程模型思路与方法

    一、 寻找变化率具线性关系的等式 基于数学方法进行分类的模型中,微分方程模型是非常重要的一类(其他的还有几何模型、...

  • Task4模型调参

    学习目标 了解常用的机器学习模型,并掌握机器学习模型的建模与调参流程 内容介绍 线性回归模型:线性回归对于特征的要...

网友评论

      本文标题:5月组队学习03:基于线性模型的方法

      本文链接:https://www.haomeiwen.com/subject/cjcsjltx.html