ICDM(the IEEE International Conference on Data Mining)2006年12月评选出了数据挖掘领域的十大经典算法:C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, and CART。参选的共18个算法,剩余8个为 FP-Tree,HITS,BIRCH,GSP,PrefixSpan, CBA,Finding reduct,gSpan。
C4.5
特点:
1) 用信息增益比来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足
2) 在树构造过程中进行剪枝
3) 能够完成对连续属性的离散化处理
4) 能够对不完整数据进行处理
优点:
1)易于理解
2)复杂度不高
3)准确率较高
4)对缺失值不敏感
5)能处理不相关特征数据
缺点:
1)(与CART比)树的构造过程中,需要对数据集进行多次的顺序扫描和排序,算法低效
2)容易过拟合
适用:数值型/标称型
k-Means
特点:试图找到数据中自然聚类的中心。假设对象属性来自于空间向量,并且目标是使各个群组内部的均方误差总和最小。
优点:易实现。
缺点:
1)收敛可能是局部最小值
2)在大规模数据集上收敛慢
适用:数值型。
SVM
特点:应用于分类&回归,将向量映射到一个更高维的空间里,在这个空间里建立有一个最大间隔超平面。在分开数据的超平面的两边建有两个互相平行的超平面。分隔超平面使两个平行超平面的距离最大化。假定平行超平面间的距离或差距越大,分类器的总误差越小。
优点:
1)泛化能力强
2)计算开销不大
3)结果易解释
缺点:
1)对参数和核函数的选择敏感
2)原始分类器只适用于二分类
适用:数值型&标称型
Apriori
特点:挖掘布尔关联规则频繁项集的算法。其核心是基于两阶段频集思想的递推算法。该关联规则在分类上属于单维、单层、布尔关联规则。在这里,所有支持度大于最小支持度的项集称为频繁项集,简称频集。
优点:易实现
缺点:在大型数据集上速度慢
适用:数值型&标称型
EM(最大期望)
特点:在概率模型中寻找参数最大似然估计的算法,其中概率模型依赖于无法观测的隐藏变量。最大期望经常用在机器学习和计算机视觉的数据集聚领域。
PageRank
PageRank根据网站的外部链接和内部链接的数量和质量俩衡量网站的价值。每个到页面的链接都是对该页面的一次投票, 被链接的越多,就意味着被其他网站投票越多。这个就是所谓的“链接流行度”——衡量多少人愿意将他们的网站和你的网站挂钩。
AdaBoost
特点:一种迭代算法,针对同一个训练集训练不同的弱分类器,把这些弱分类器集合起来,构成一个强分类器。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。
优点:
1)泛化错误率低
2)易编码
3)可用于多种分类器
4)无参数
缺点:对离群点敏感。
适用:数值型&标称型数据
kNN
特点:找到一个样本在特征空间中的k个特征空间中最邻近的样本中的大多数类别,则该样本也属于这个类别。
优点:
1)精度高
2)对异常值不敏感
3)无数据输入假定
缺点:
1)计算&空间密集型
适用:数值型&标称型
朴素贝叶斯
特点:所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。理论上误差率最小,但是实际上并非总是如此,因为NBC模型假设属性之间相互独立,所以在属性相关性较小时,NBC模型的性能最为良好。
优点:
1)数据少的情况下依然有效
2)可处理多类别问题
缺点:缺失值敏感
适用:标称型数据
CART树
特点:分类树/回归树。分类树有两个关键的思想——第一个是关于递归地划分自变量空间的想法(二元切分法);第二个想法是用验证数据进行剪枝(预剪枝、后剪枝)。回归树——树构建难度增加,但同时其分类效果也有提升。
优点:可对复杂/非线性数据建模
缺点:结果不易理解
适用:数值型&标称型数据
网友评论