一、聚类算法的概述:
1、聚类算法:一种典型的无监督学习算法,主要用于将相似的样本自动归到一个类别中。
在聚类算法中根据样本之间的相似性,将样本划分到不同的类别中,对于不同的相似度计算方法,会得到不同的聚类结果,常用的相似度计算方法有欧式距离法。
2、聚类算法与分类算法最大的区别:
聚类算法是无监督学习算法,而分类算法属于监督的学习算法。
3、API:sklearn.cluster.KMeans(n_cluster=8)
- 参数: n_cluster:开始的聚类中心数量
- 方法:KMeans(n_clusters=2, random_state=9).fit_predict(X),计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(X),然后再调用predict(X)。
二、创建数据集:
1、代码:
import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score
# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
n_features=2,
centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
cluster_std=[0.4, 0.2, 0.2, 0.2], # 表示每对数据之间的间隔
random_state=9)
# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()
2、创建的数据集效果:
三、聚类操作:
1、分两类代码:n_clusters=2
import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score
# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
n_features=2,
centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
cluster_std=[0.4, 0.2, 0.2, 0.2], # 表示每对数据之间的间隔
random_state=9)
# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()
# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()
# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))
1.1、分两类效果:n_clusters=2,分成了两堆不同的颜色数据集。
1.2、分两类的预测值:
2、分3类代码:n_clusters=3
import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score
# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
n_features=2,
centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
cluster_std=[0.4, 0.2, 0.2, 0.2], # 表示每对数据之间的间隔
random_state=9)
# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()
# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()
# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))
# 2.2、聚类为 3 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=3, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()
# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=3时候预测结果:\n", calinski_harabasz_score(X, y_pre))
2.1、分3类效果:n_clusters=3,分成了3堆不同的颜色数据集。
2.2、分3类的预测值:
3、分两类代码:n_clusters=4
import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score
# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
n_features=2,
centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
cluster_std=[0.4, 0.2, 0.2, 0.2], # 表示每对数据之间的间隔
random_state=9)
# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()
# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()
# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))
# 2.2、聚类为 3 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=3, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()
# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=3时候预测结果:\n", calinski_harabasz_score(X, y_pre))
# 2.3、聚类为 4 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=4, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()
# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=4时候预测结果:\n", calinski_harabasz_score(X, y_pre))
3.1、分4类效果:n_clusters=4,分成了4堆不同的颜色数据集。
3.2、分4类的预测值: