美文网首页
[机器学习][异常检测算法][概率分布法+Isolation F

[机器学习][异常检测算法][概率分布法+Isolation F

作者: 马骋 | 来源:发表于2019-03-10 09:54 被阅读0次

    如果你有了一大堆数据,想找到异常的数据记录,异常检测就是解决这个问题的。
    在工业数据中,异常意味着故障、不合格;
    在账户数据中,异常意味着可能盗号、欺诈;
    在财经数据中,异常意味着数据的真实性有问题。


    0.引言

    异常检测应用在工业检测、账户行为监测等领域。
    问题特点:

    • 样本比例高度不均衡,异常点总是极少数的;
    • 异常样本子集一般不具备共性的特征,异常的方式各不相同,难以作为一个类别分类
    • 高维数据中,并非所有的样本都会用到,需要特征选择;
    • 由于样本高度不平衡,因此测试的指标往往用F1;

    异常检测问题,往往更多使用无监督的算法建模,再结合标定的验证集用于切阈值。

    异常检测的两类常用方法:

    • 基于概率分布的方法
      吴恩达机器学习课程,手动code
    • Isolation Forest
      周志华及其学生研究提出,已经有了sklearn实现。

    本文案例代码:https://github.com/Frank2015a/machine_learning_practice/blob/master/04_AnomalyDetection/Anornal.ipynb

    1.示例数据

    数据集:电脑开机参数,包含两个特征

    • 等待时间
    • CPU吞吐量

    训练集和验证集的图示如:

    image_1d5ijm9vc12eoq9s31217sf1spl9.png-28.6kBimage_1d5ijm9vc12eoq9s31217sf1spl9.png-28.6kB

    2. 概率分布异常检测

    算法概述

    算法教程参见吴恩达-机器学习-异常检测。

    基本的假定是:数据中的每个特征数值都符合正态分布,如果数据点在整体分布上的概率密度值极小,即极小概率出现,认为是异常值。

    image_1d5ik2kol1oaj14f21e8o11n0ppcm.png-207.2kBimage_1d5ik2kol1oaj14f21e8o11n0ppcm.png-207.2kB

    概率分布方法对数据的要求:

    • 特征为数值型变量,factor型变量难以用概率描述
    • 特征数值符合正态分布

    数据检验

    正态性检验方法:stats.shapiro

    • 原假设:数据符合正态分布
    • 接受假设的条件:
      • 统计量W接近1
      • 显著性水平(p-value)大于0.05

    从训练集假设检验的结果并不完全满足正态分布。

    from scipy import stats # 用于数据的正态性检验
    print('norm test of X[:,0]: ', stats.shapiro(X[:,0]))
    print('norm test of X[:,1]: ', stats.shapiro(X[:,1]))
    # output 
    norm test of X[:,0]:  (0.818209171295166, 2.788045548629635e-18)
    norm test of X[:,1]:  (0.7949155569076538, 2.2437695460625395e-19)
    

    算法应用

    训练数据无label,在labeled验证集上,应用算法:

    p_val = multivariate_gaussian(X_val, mu, sigma2) #根据训练集的mu sigma2 得到验证集样本的概率
    epsilon_0, f1_0 = select_threshold(y_val, p_val)     # 搜索选择合适的概率阈值
    print('Best epsilon found using cross-validation: {:0.4e}'.format(epsilon_0))
    print('Best F1 on Cross Validation Set: {:0.6f}'.format(f1_0))
    # output
    Best epsilon found using cross-validation: 8.9909e-05
    Best F1 on Cross Validation Set: 0.875000
    
    image_1d5ikbpg42fe11o7e1b2d01shj13.png-17.7kBimage_1d5ikbpg42fe11o7e1b2d01shj13.png-17.7kB

    数据集中的9个异常点,检测出了7个,另外2个未检出的点实际在数据集的中心位置,并不是典型的异常点。需要注意的是,仅当数据为2维时,才能方便的应用可视化方法。

    3. Isolation Forrest

    算法概述

    周志华及其学生在2010年提出。

    方法:对样本的所有特征2分叉,随机采样构建N棵Tree
    假设:异常点非常稀有,一般很快会分配到叶子节点,路径短
    结果:对样本在Tree中分配路径长度归一化,给出异常指数

    以路径长度作为异常的度量,在sklearn中已经有成熟实现,模型简单,速度快,参数少。
    输入数据的特征选择比较重要,少量关键的特征效果好。

    算法应用

    由于算法已经在sklearn中实现,可以直接加载使用.IsolationForest 支持并行计算,在数据集较大的时候很有优势。

    from sklearn.ensemble import IsolationForest
    # 需要调的参数主要是 树的棵树
    isf = IsolationForest(n_estimators=10,
                          n_jobs=-1,          # 使用全部cpu
                          verbose=2,
                         )
    isf.fit(X) # 直接用无标签数据训练              
    # 通过decision_function获取异常系数值,可以理解为异常概率,选择一个最好的阈值
    y_val_prob = isf.decision_function(X_val)
    epsilon_1, f1_1 = select_threshold(y_val, y_val_prob)
    
    print('Best epsilon found using cross-validation: {:0.4e}'.format(epsilon_1))
    print('Best F1 on Cross Validation Set: {:0.6f}'.format(f1_1))
    
    # output
    Best epsilon found using cross-validation: -6.2384e-02
    Best F1 on Cross Validation Set: 0.823529
    
    image_1d5ikllotf4h1n4s1igu14021qn41g.png-17.5kBimage_1d5ikllotf4h1n4s1igu14021qn41g.png-17.5kB

    由于数据集比较简单,IsolationForest检测性能与概率分布法是一致的。
    由于IsolationForest对数据的格式(连续、离散)以及概率分布没有要求,可以预见这种算法的应用范围可能更广。

    相关文章

      网友评论

          本文标题:[机器学习][异常检测算法][概率分布法+Isolation F

          本文链接:https://www.haomeiwen.com/subject/vffupqtx.html