美文网首页论文算法库
利用K-均值聚类算法对未标注数据分组(二)

利用K-均值聚类算法对未标注数据分组(二)

作者: RossH | 来源:发表于2019-11-11 22:20 被阅读0次

    二分K-均值算法

    为了解决K-均值算法收敛于局部最小值的问题,有人提出了二分K-均值的算法。首先,将整个数据集作为一个簇,然后将该簇一分为二。之后选择其中一个簇继续划分。选择哪一个簇进行划分取决于对其划分是否可以最大程度降低SSE的值。上述过程不断重复,直到得到用户指定的簇数目为止。
    伪代码如下:

    将所有点看成一个簇
    当簇数目小于k时:
        对于每一个簇:
            计算总误差
            在给定的簇上面进行K-均值聚类(k=2)
            计算将该簇一分为二之后的总误差
        选择使得误差最小的那个簇进行划分
    

    另一种做法是选择SSE最大的簇进行划分。

    def biKmeans(dataSet, k, distMeas=distEclud):
        m = dataSet.shape[0]
        clusterAssment = np.mat(np.zeros((m,2)))
        # 计算初始簇的质心
        centroid0 = np.mean(dataSet, axis=0).tolist()[0]
        # 保存质心的列表
        centList = [centroid0]
        # 计算并保存每个点到初始质心的误差
        for j in range(m):
            clusterAssment[j, 1] = distMeas(np.mat(centroid0), dataSet[j, :]) ** 2
        while len(centList) < k:
            lowestSSE = np.inf
            # 遍历当前所有的簇
            for i in range(len(centList)):
                # 当前簇的所有点
                ptsInCurrCluster = dataSet[np.nonzero(clusterAssment[:,0].A == i)[0], :]
                centroidMat, splitClustAss = kMeans(ptsInCurrCluster, 2, distMeas)
                # 被划分的SSE
                sseSplit = np.sum(splitClustAss[:, 1])
                # 没有被划分的簇的SSE
                sseNotSplit = np.sum(clusterAssment[np.nonzero(clusterAssment[:,0].A != i)[0], 1])
                if (sseSplit + sseNotSplit) < lowestSSE:
                    bestCentToSplit = I
                    bestNewCents = centroidMat
                    bestClustAss = splitClustAss.copy()
                    lowestSSE = sseSplit + sseNotSplit
            # 更新
            bestClustAss[np.nonzero(bestClustAss[:, 0].A == 1)[0], 0] = len(centList)
            bestClustAss[np.nonzero(bestClustAss[:, 0].A == 0)[0], 0] = bestCentToSplit
            centList[bestCentToSplit] = bestNewCents[0, :]
            centList.append(bestNewCents[1, :])
            clusterAssment[np.nonzero(clusterAssment[:, 0].A == bestCentToSplit)[0], :] = bestClustAss
        centList = list([np.matrix.tolist(i)[0] for i in centList])
        print(centList)
        return np.mat(centList), clusterAssment
    

    下面看一下实际运行效果。

    data = np.mat(loadDataSet('testSet2.txt'))
    centList, clustAssing = biKmeans(data, 3)
    
    cluster1 = data[np.nonzero(clustAssing[:,0].A == 0)[0]]
    cluster2 = data[np.nonzero(clustAssing[:,0].A == 1)[0]]
    cluster3 = data[np.nonzero(clustAssing[:,0].A == 2)[0]]
    
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif'] = ['SimHei']
    
    plt.scatter(cluster1[:, 0].T.tolist()[0], cluster1[:, 1].T.tolist()[0], marker='s')
    plt.scatter(cluster2[:, 0].T.tolist()[0], cluster2[:, 1].T.tolist()[0], marker='o')
    plt.scatter(cluster3[:, 0].T.tolist()[0], cluster3[:, 1].T.tolist()[0], marker='*')
    plt.scatter(centList[:,0].T.tolist()[0], centList[:,1].T.tolist()[0], marker='+', s=150)
    plt.title('二分K-均值算法聚类结果')
    plt.show()
    

    结果如下。


    小结

    • 聚类是无监督学习
    • 聚类将相似数据点归于同一簇,不相似数据点归于不同簇。
    • 聚类可以使用多种不同的方法来计算相似度。
    • Kmeans算法从k个随机质心开始,简单有效但容易受到随机的初始质心影响。
    • 二分K-均值算法可以解决Kmeans收敛到局部最小值的问题。

    相关文章

      网友评论

        本文标题:利用K-均值聚类算法对未标注数据分组(二)

        本文链接:https://www.haomeiwen.com/subject/qymxictx.html