美文网首页
聚类算法-KMeans

聚类算法-KMeans

作者: 涓涓自然卷 | 来源:发表于2021-03-15 10:25 被阅读0次

一、聚类算法的概述:

1、聚类算法:一种典型的无监督学习算法,主要用于将相似的样本自动归到一个类别中。
在聚类算法中根据样本之间的相似性,将样本划分到不同的类别中,对于不同的相似度计算方法,会得到不同的聚类结果,常用的相似度计算方法有欧式距离法

2、聚类算法与分类算法最大的区别:
聚类算法是无监督学习算法,而分类算法属于监督的学习算法。

3、API:sklearn.cluster.KMeans(n_cluster=8)

  • 参数: n_cluster:开始的聚类中心数量
  • 方法:KMeans(n_clusters=2, random_state=9).fit_predict(X),计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(X),然后再调用predict(X)。

二、创建数据集:

1、代码:

import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score

# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
                  n_features=2,
                  centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],  # 表示每对数据之间的间隔
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

2、创建的数据集效果:


数据集效果.png

三、聚类操作:

1、分两类代码:n_clusters=2

import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score

# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
                  n_features=2,
                  centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],  # 表示每对数据之间的间隔
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))

1.1、分两类效果:n_clusters=2,分成了两堆不同的颜色数据集

分两类效果.png

1.2、分两类的预测值:

分两类的预测值.png

2、分3类代码:n_clusters=3

import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score

# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
                  n_features=2,
                  centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],  # 表示每对数据之间的间隔
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))

# 2.2、聚类为 3 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=3, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=3时候预测结果:\n", calinski_harabasz_score(X, y_pre))

2.1、分3类效果:n_clusters=3,分成了3堆不同的颜色数据集

分3类效果.png

2.2、分3类的预测值:

分3类的预测值.png

3、分两类代码:n_clusters=4

import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score

# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
                  n_features=2,
                  centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],  # 表示每对数据之间的间隔
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))

# 2.2、聚类为 3 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=3, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=3时候预测结果:\n", calinski_harabasz_score(X, y_pre))

# 2.3、聚类为 4 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=4, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=4时候预测结果:\n", calinski_harabasz_score(X, y_pre))

3.1、分4类效果:n_clusters=4,分成了4堆不同的颜色数据集

分4类效果.png

3.2、分4类的预测值:

分4类的预测值.png

四、总结:

通过以上这个例子可以看出,这堆数据分成 4 类的时候评估效果最佳:

相关文章

  • kmeans算法

    kmeans算法 简介kmeans算法 kmeans算法又称k平均或k均值算法,一种已知聚类类别数的聚类算法。 它...

  • Spark实现 -- Kmeans聚类算法

    Spark实现 -- Kmeans聚类算法 Kmeans简介 Kmeans是最常用的聚类算法,也是十大经典的数据挖...

  • Clustering

    本文结构安排 经典聚类算法:线性聚类 Kmeans 经典聚类算法:非线性聚类 DBSCAN、谱聚类 新兴聚类算法:...

  • Kmeans聚类算法简介(有点枯燥)

    1. Kmeans聚类算法简介 由于具有出色的速度和良好的可扩展性,Kmeans聚类算法算得上是最著名的聚类方法。...

  • Kmeans聚类算法简介

    1. Kmeans聚类算法简介 由于具有出色的速度和良好的可扩展性,Kmeans聚类算法算得上是最著名的聚类方法。...

  • 简单聚类算法

    一些聚类算法 Birch层次聚类 ,KMeans原形算法 ,AGNES层次算法, DBSCAN密度算法, LVQ原...

  • K均值聚类及代码实现

    KMeans聚类 在聚类算法中,最出名的应该就是k均值聚类(KMeans)了,几乎所有的数据挖掘/机器学习书籍都会...

  • KNN与K-Means算法的区别

    内容参考:Kmeans算法与KNN算法的区别kNN与kMeans聚类算法的区别 KNN-近邻算法-分类算法 思想:...

  • 如何确定kmeans算法的k值

    问题的提出: Kmeans算法中,K值所决定的是在该聚类算法中,所要分配聚类的簇的多少。Kmeans算法对初始值是...

  • 二分 KMeans,Bisecting KMeans 代码实现

    算法原理:由于传统KMeans算法的聚类结果易受初始聚类中心点选择的影响,因此在传统的KMeans算法的基础上进行...

网友评论

      本文标题:聚类算法-KMeans

      本文链接:https://www.haomeiwen.com/subject/kyghcltx.html