美文网首页
K-Means(四)聚类效果

K-Means(四)聚类效果

作者: shijiatongxue | 来源:发表于2018-10-12 00:24 被阅读0次

    兰德指数(Adjusted Rand index, ARI)

    >>>from sklearn import metrics

    >>>labels_true = [0, 0, 0, 1, 1, 1]

    >>>labels_pred = [0, 0, 1, 1, 2, 2]

    >>>metrics.adjusted_rand_score(labels_true, labels_pred)

    优点:对于均匀分布的数据,ARI接近于0;ARI的范围介入-1到1之间,-1表示分类效果不好,1表示分类效果好;不需要对簇结构进行预先估计,可以对不同的聚类算法进行评估。

    缺点:需要知道数据的真实分类。

    对兰德指数进行改进的原因是,原来的兰德指数不能保证即使在随机分类时,如在处理k=n此类型问题时趋近于0。对其进行改进之后可以避免这个缺陷。

    互信息(Mutual Information based scores,MI)

    互信息用来衡量两个分布一致性,并且忽略顺序。

    直观上,互信息度量 X 和 Y 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。例如,如果 X 和 Y 相互独立,则知道 X 不对 Y 提供任何信息,反之亦然,所以它们的互信息为零。

    >>> from sklearn import metrics                                                                                         

    >>> labels_true = [0, 0, 0, 1, 1, 1]                                                                                        

    >>> labels_pred = [0, 0, 1, 1, 2, 2]                                                                                      

    >>> metrics.adjusted_mutual_info_score(labels_true, labels_pred)

    优点:随机的预测AMI会接近于0;最大上界为1,说明预测完全正确。

    缺点:需要预先知道样本所属类,而类间差SSE不需要。

    同质性(homogeneity),完整性(completeness),V-度量(V-measure)

    >>> from sklearn import metrics

    >>> labels_true = [0, 0, 0, 1, 1, 1]

    >>> labels_pred = [0, 0, 1, 1, 2, 2]

    >>> metrics.homogeneity_score(labels_true, labels_pred) 

    0.66...

    >>> metrics.completeness_score(labels_true, labels_pred) 

    0.42...

    同质性是指每个群集只包含单个类的成员。

    完整性是指给定类的所有成员都分配给同一个群集。

    V-度量是以上两者的调和平均数。

    优点:0代表差,1代表好;不需要对簇结构进行假设,可以对不同聚类算法进行比较。

    缺点:当簇数目比较大时,这三者的值都不会趋近于0;当样本数多于1000或者簇数目少于10时可以避免这个问题,其他情况可以选择适用ARI;另外这三个指标需要知道样本的真实分类。

    Fowlkes-Mallows分数,简称FMI

    FMI定义为成对精度和召回率的几何平均值。

    >>> from sklearn import metrics

    >>> labels_true = [0, 0, 0, 1, 1, 1]

    >>> labels_pred = [0, 0, 1, 1, 2, 2]

    >>> metrics.fowlkes_mallows_score(labels_true, labels_pred) 

    0.47140...

    优点:随机预测值趋近于0;上限为1,表示预测完全正确;不需要对簇类型进行假设。

    缺点:需要知道样本类别。

    轮廓系数

    在K-Means(一)中有详细说明,此处从简。

    >>> from sklearn import metrics

    >>> from sklearn.metrics import pairwise_distances

    >>> from sklearn import datasets

    >>> dataset = datasets.load_iris()

    >>> X = dataset.data

    >>> y = dataset.target

    >>> import numpy as np

    >>> from sklearn.cluster import KMeans

    >>> kmeans_model = KMeans(n_clusters=3, random_state=1).fit(X)

    >>> labels = kmeans_model.labels_

    >>> metrics.silhouette_score(X, labels, metric='euclidean')

    ... 0.55...

    优点:不需要知道样本标签;-1表示存在错误聚类,0表示有交叉的簇,1表示高密度聚类。

    缺点:凸形簇的轮廓系数通常高于其他类型的簇。

    Calinski-Harabaz Index,简称CHI

    如果不知道样本的标签,CHI可以用来评估模型。值越高说明聚类效果越好。该指数基于类间差和类内差,并且对k的增加有惩罚。

    >>> from sklearn import metrics

    >>> from sklearn.metrics import pairwise_distances

    >>> from sklearn import datasets

    >>> dataset = datasets.load_iris()

    >>> X = dataset.data

    >>> y = dataset.target

    >>> import numpy as np

    >>> from sklearn.cluster import KMeans

    >>> kmeans_model = KMeans(n_clusters=3, random_state=1).fit(X)

    >>> labels = kmeans_model.labels_

    >>> metrics.calinski_harabaz_score(X, labels) 

    561.62...

    优点:易计算(比轮廓系数快很多);当类聚合地很好,类间差距很大时,该值增大,反映了簇的标准概念。

    缺点:对于凸形簇,该值会很大,但是对于其他类型簇,如基于密度型,该值无可奈何。

    Davies-Bouldin Index,简称DBI

    真实分类未知,可以用DBI来评估聚类效果。值越小越好,最佳值为0,代表分类完全正确。

    >>> from sklearn import datasets

    >>> iris = datasets.load_iris()

    >>> X = iris.data

    >>> from sklearn.cluster import KMeans

    >>> from sklearn.metrics import davies_bouldin_score

    >>> kmeans = KMeans(n_clusters=3, random_state=1).fit(X)

    >>> labels = kmeans.labels_

    >>> davies_bouldin_score(X, labels) 

    0.6619...

    优点:计算较轮廓系数简单;该指数只计算与数据集固有的数量和特征。

    缺点:对于凸性簇,该值会高一点;质心距离限制距离度量欧氏空间;良好的值并不意味着最好的分类结果。


    总结:共有7类度量方法,有监督的4类,无监督的3类,加上SSE,无监督也有4类。

    考文献:

    2.3. Clustering http://scikit-learn.org/stable/modules/clustering.html#k-means

    相关文章

      网友评论

          本文标题:K-Means(四)聚类效果

          本文链接:https://www.haomeiwen.com/subject/adaiaftx.html