美文网首页语言数据乐园异常挖掘
iForest (Isolation Forest)孤立森林 异

iForest (Isolation Forest)孤立森林 异

作者: YeZhu | 来源:发表于2017-01-29 09:11 被阅读22078次

iForest (Isolation Forest)孤立森林 是一个基于Ensemble的快速异常检测方法,具有线性时间复杂度和高精准度,是符合大数据处理要求的state-of-the-art算法(详见新版教材“Outlier Analysis”第5和第6章 PDF)。其可以用于网络安全中的攻击检测,金融交易欺诈检测,疾病侦测,和噪声数据过滤等。本文将通俗解释实现方法和日常运用,即无需深厚的数学功底。

首先,我们先了解下该算法的动机。目前学术界对异常(anomaly detection)的定义有很多种,iForest 适用与连续数据(Continuous numerical data)的异常检测,将异常定义为“容易被孤立的离群点 (more likely to be separated)”——可以理解为分布稀疏且离密度高的群体较远的点。用统计学来解释,在数据空间里面,分布稀疏的区域表示数据发生在此区域的概率很低,因而可以认为落在这些区域里的数据是异常的。一个例子如下(来源):

黑色的点为异常点,白色点为正常的点(在一个簇中)。iForest检测到的异常边界为红色,它可以正确地检测到所有黑点异常点。

iForest属于Non-parametric和unsupervised的方法,即不用定义数学模型也不需要有标记的训练。对于如何查找哪些点是否容易被孤立(isolated),iForest使用了一套非常高效的策略。假设我们用一个随机超平面来切割(split)数据空间(data space), 切一次可以生成两个子空间(想象拿刀切蛋糕一分为二)。之后我们再继续用一个随机超平面来切割每个子空间,循环下去,直到每子空间里面只有一个数据点为止。直观上来讲,我们可以发现那些密度很高的簇是可以被切很多次才会停止切割,但是那些密度很低的点很容易很早的就停到一个子空间了。上图里面黑色的点就很容易被切几次就停到一个子空间,而白色点聚集的地方可以切很多次才停止。

怎么来切这个数据空间是iForest的设计核心思想,本文仅介绍最基本的方法。由于切割是随机的,所以需要用ensemble的方法来得到一个收敛值(蒙特卡洛方法),即反复从头开始切,然后平均每次切的结果。iForest 由t个iTree(Isolation Tree)孤立树 组成,每个iTree是一个二叉树结构,其实现步骤如下:

1. 从训练数据中随机选择Ψ个点样本点作为subsample,放入树的根节点。

2. 随机指定一个维度(attribute),在当前节点数据中随机产生一个切割点p——切割点产生于当前节点数据中指定维度的最大值和最小值之间。

3. 以此切割点生成了一个超平面,然后将当前节点数据空间划分为2个子空间:把指定维度里小于p的数据放在当前节点的左孩子,把大于等于p的数据放在当前节点的右孩子。

4. 在孩子节点中递归步骤2和3,不断构造新的孩子节点,直到 孩子节点中只有一个数据(无法再继续切割) 或 孩子节点已到达限定高度 。

获得t个iTree之后,iForest 训练就结束,然后我们可以用生成的iForest来评估测试数据了。对于一个训练数据x,我们令其遍历每一棵iTree,然后计算x最终落在每个树第几层(x在树的高度)。然后我们可以得出x在每棵树的高度平均值,即 the average path length over t iTrees。*值得注意的是,如果x落在一个节点中含多个训练数据,可以使用一个公式来修正x的高度计算,详细公式推导见原论文

获得每个测试数据的average path length后,我们可以设置一个阈值(边界值),average path length 低于此阈值的测试数据即为异常。也就是说 “iForest identifies anomalies as instances having the shortest average path lengths in a dataset ”(异常在这些树中只有很短的平均高度). *值得注意的是,论文中对树的高度做了归一化,并得出一个0到1的数值,即越短的高度越接近1(异常的可能性越高)。

4个测试样本遍历一棵iTree的例子如下:

b和c的高度为3,a的高度是2,d的高度是1。

可以看到d最有可能是异常,因为其最早就被孤立(isolated)了。


生成一棵iTree的详细算法(来源):

X为独立抽取的训练样本。参数e的初始值为0。h是树可以生成的最大高度。

iForest算法默认参数设置如下:

subsample size: 256

Tree height: 8

Number of trees: 100

通俗解释就是——建100棵iTree,每棵iTree最高8层,且每棵iTree都是独立随机选择256个数据样本建成。


个人见解:

1. iForest具有线性时间复杂度。因为是ensemble的方法,所以可以用在含有海量数据的数据集上面。通常树的数量越多,算法越稳定。由于每棵树都是互相独立生成的,因此可以部署在大规模分布式系统上来加速运算。

2. iForest不适用于特别高维的数据。由于每次切数据空间都是随机选取一个维度,建完树后仍然有大量的维度信息没有被使用,导致算法可靠性降低。高维空间还可能存在大量噪音维度或无关维度(irrelevant attributes),影响树的构建。对这类数据,建议使用子空间异常检测(Subspace Anomaly Detection)技术。此外,切割平面默认是axis-parallel的,也可以随机生成各种角度的切割平面,详见“On Detecting Clustered Anomalies Using SCiForest”。

3. iForest仅对Global Anomaly 敏感,即全局稀疏点敏感,不擅长处理局部的相对稀疏点 (Local Anomaly)。目前已有改进方法发表于PAKDD,详见“Improving iForest with Relative Mass”。

4. iForest推动了重心估计(Mass Estimation)理论发展,目前在分类聚类和异常检测中都取得显著效果,发表于各大顶级数据挖掘会议和期刊(如SIGKDD,ICDM,ECML)。


参考文献

iForest 是刘飞博士(Fei Tony Liu)在莫纳什大学就读期间由陈开明(Kai-Ming Ting)教授和周志华(Zhi-Hua Zhou)教授指导发表的。第一个版本是在2008年ICDM上,获得年度最佳论文,扩充版本发表与TKDD。

Liu, Fei Tony, Kai Ming Ting, and Zhi-Hua Zhou. "Isolation forest."Data Mining, 2008. ICDM'08. Eighth IEEE International Conference on. IEEE, 2008.

Liu, Fei Tony, Kai Ming Ting, and Zhi-Hua Zhou. "Isolation-based anomaly detection."ACM Transactions on Knowledge Discovery from Data (TKDD)6.1 (2012): 3.

论文下载

http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/icdm08b.pdf

http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/tkdd11.pdf

源码下载

R语言    https://sourceforge.net/projects/iforest/

Python语言    http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.IsolationForest.html

Java语言    http://weka.sourceforge.net/packageMetaData/isolationForest/index.html

Matlab语言 https://github.com/zhuye88/iForest


全文完,转载必须注明出处:  © Ye Zhu 2017  

相关文章

网友评论

  • 849581d6347f:好文章,10分钟就看明白了,提纲挈领!必须赞一下!
  • 一根烟_一杯茶_一行代码看一天:这个过程感觉有些类似kd树
  • JackpGao:这文章写的太好了。期待更多的文章
  • bc481f1c37a3:老师您好,请问算法对数据分割时选取的角度是完全自选取的吗?还是需要一定的人为设置
    bc481f1c37a3:@YeZhu 老师还有个问题,当使用的数据集里完全不包含异常数据时,算法的效果会是怎样?会大量误检吗?
    bc481f1c37a3:@YeZhu 谢谢!
    YeZhu:@嘿你的益达_e317 是算法随机选的,和Random Forest一样。
  • a26f5b96cffb:老师,您好。该算法已经适用于海量数据,请问 如果在数据流方向上改进的话是否有意义,也就是能够根据新到的数据更新iForest
    YeZhu:@跳河自尽的鱼 你好,这是最近相关研究 https://ieeexplore.ieee.org/document/7893709
  • f0041a212c53:老师您好,您提供的R程序包,已经落后版本很多了,有什么较为合适的方式继续用R程序来实现吗?
    YeZhu:你好,原作者已毕业离校好多年了,目前不维护R这个版本了。个人建议你自己按论文实现或者用Python / Matlab。
  • fc4c16acee65:老师,您好,您的mass函数的计算为什么是加c,而不是除c:mass(CurtIndex) = Tree.Height + c;
    YeZhu:如果一个树的子节点还有多个数据点 就用这个公式估算还可以分裂平均高度 所以是在现有的高度上+c
    详见论文第三页 Equation 1
    http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/icdm08b.pdf
  • bde97fa2387c:老师,请问有什么方法可以有效设置score 的异常阈值吗?
    YeZhu:@红榭云轩 异常检测本身是无监督的 阈值设置都是基于数据分布假设来定的 也就是在sensitivity 和 specificity 中 trade-off. 如果有部分ground-truth, 就可以做semi-supervised 检测提高精度了, 见 https://arxiv.org/ftp/arxiv/papers/1401/1401.6424.pdf
    bde97fa2387c:老师,我想到一种思路,根据标签来设置阈值,大于阈值就是异常,小于阈值就是背景,让分类的结果正确率最高。
    YeZhu:教材“Outlier Analysis”中有提到 "threshold is chosen based on the statistical distribution of the scores." 通常如果符合高斯分布的话可以设置适当的百分界值,如80%,90%,95%。
  • 0d30877b5757:您好,我还是不太理解Mass的含义,我该去哪里找每棵树一共分了几次呢。
    YeZhu:@鑫鑫吃东西 如果x落在一个叶节点中含多个训练数据,可以使用一个公式来修正x的高度计算,详细公式推导见原论文。
    0d30877b5757:@YeZhu 如果每棵树选择256个点,应该只需要分八层,但是我查看mass,却发现正常点最多分了十几,二十层
    YeZhu:mass在iForest里面指的就是该检测点的平均路径长度——the average path length over t iTrees。对于该测试点,先算其在每棵树上落在第几层,然后求平均。
    你去遍历每棵树就知道分了多少次了, 如 Forest.Trees{1}.LeftChild.LeftChild 就是查看第一棵树第左节点的左节点。
  • 00321540b6ad:大神 有具体的运用实例吗
    00321540b6ad:@YeZhu 谢谢
    YeZhu:https://arxiv.org/pdf/1609.06676.pdf
    YeZhu:https://pdfs.semanticscholar.org/2a84/1a61aa2b041dc71940333698d8905234be4b.pdf
  • 7f33cf12f5b6:老师您好,请问您有 outlier analysis 的pdf吗
    7f33cf12f5b6:@YeZhu 哇,谢谢,打开了新世界:blush:
    YeZhu:@大洋Daniel 你可以去Library Genesis上找:blush:
  • 154f7c1cbda4:老师,您好!我是菜鸟,MATLAB代码具体怎么应用能否再详细一些,着急写硕士论文,能不能求您给予指点,万分感谢
    YeZhu:@素时锦年_d123 1. 设置阈值,异常值大于改阈值的点是异常点; 2 看https://www.zhihu.com/question/39840928; 3 矩阵必须是数值型 可以一维
    154f7c1cbda4:@YeZhu 嗯嗯,老师,我知道代码怎么用了,但是还是有不懂的地方,想请教您:1怎么看哪个点是异常点,能不能作图啊
    2最后的结果AUC是整个样本的异常值吗?
    3 如果我做的是电力负荷的异常值检验,样本是一维的,代入您的程序中,总说矩阵维度不一致,这个能解决吗,矩阵不能是n*1的矩阵吗
    麻烦您在百忙之中做出回答,万分感谢!
    YeZhu:@素时锦年_d123 建议你看看原论文 这不是一两句话可以解释清楚的:blush:
  • 3b91a6e81876:刚开始学习异常检测,想问问现在业界都基本上用什么方法进行异常检测呀? 谢谢:pray:
    YeZhu:@Swufe_zhaoc 建议你看看这本书第一章节 https://link.jianshu.com/?t=http://link.springer.com/book/10.1007/978-3-319-47578-3
  • 716b27cc77a2:您这个里面的异常分数是没有算吗?mass代表什么意思呢?也没有找到每条记录x的平均路径长度
    716b27cc77a2:您的这个代码里面score为什么这样算?还加了个负号。
    716b27cc77a2:@YeZhu 那异常分数是怎么计算的呢?不是应该处于0-1之间吗,我看最后那个score只是把Mass平均求了一下,没找到异常分数计算的那个公式。想将每条测试数据的异常分数求出来
    YeZhu:mass在iForest里面指的就是该检测点的平均路径长度——the average path length over t iTrees。
  • 716b27cc77a2:您好,老师,请教一个问题,如果测试数据中异常类只有几组,正常类有上百组,这样使用这个算法后得到的结果仍可信吗?异常样本极其少,甚至没有的时候,还适合使用iforest算法进行异常检测吗
    YeZhu:iForest 适用与连续数据(Continuous numerical data)的异常检测,将异常定义为“容易被孤立的离群点 (more likely to be separated)”——可以理解为分布稀疏且离密度高的群体较远的点。
    如果你的异常样本和其他正常样本相似度很高或者其在空间里分布稠密,那么iForest无效。
  • 1d2fb8b6e805:你好,我看了MATLAB的代码,我发现训练数据和测试数据是同一组数据啊,是我理解有误么?望回复
    YeZhu:你好,iForest属于Unsupervised Learning,和聚类一样,不需要标签来训练。因此可以直接用测试集训练模型,然后基于这个模型得出测试集的分数。
  • 4ed5bb9ceaf6:你好 非常感谢您的分享 同时 请问方便分享该案例的数据集吗 我在尝试用matlab中的iforest数据集第三个数据集时候得到该算法的性能不是很好 不知道是什么原因 恳请指点
    YeZhu:@颜小菁 @龘羴犇骉
    第三个数据是 shuttle, 你只需要把 run_iForest.m 中第四行改成 data=load('shuttle_49097.csv'); 然后点运行可以得到
    AUC_results =
    0.9941 0.0016

    其中0.9941是跑10次的AUC均值,0.0016是标准差。AUC已经接近1了,表示近乎完美。你能详细描述下你遇到的问题么?



  • 饭饭七:目前我在做异常检测这块遇到瓶颈,论文也看了一些,实在是找不到突破点,老师能给个建议么从什么方面着手么,谢谢!
    饭饭七:@YeZhu 好的,谢谢哈~
    YeZhu:你好,目前学术界已经开发出了大量的异常检测的技术,针对不同类型的数据和不同定义的异常。去年KDD 2016也讨论了这个话题,请查看http://www.kdd.org/kdd2016/topics/view/outlier-and-anomaly-detection。我的建议是结合你目前的数据集和需求,来寻找突破口,如是否有已知的成熟的方法,是否还可以改进性能如精度和速度。你也可以关注KDD,ICDM等数据挖掘会议上最新发表的相关论文,看看学术界目前锁定的热点方向。
  • 12b0410b0ea8:想请问一下这个有没有matlab版本的代码?
    饭饭七:目前我在做异常检测这块遇到瓶颈,论文也看了一些,实在是找不到突破点,老师能给个建议么从什么方面着手么,谢谢!
    YeZhu:https://github.com/zhuyemvp/iForest

本文标题:iForest (Isolation Forest)孤立森林 异

本文链接:https://www.haomeiwen.com/subject/wsiqittx.html