K-means算法介绍
简单来说,K-means算法是一种无监督算法,不需要事先对数据集打上标签,即ground-truth,也可以对数据集进行分类,并且可以指定类别数目
牧师-村民模型
K-means 有一个著名的解释:牧师—村民模型:
有四个牧师去郊区布道,一开始牧师们随意选了几个布道点,并且把这几个布道点的情况公告给了郊区所有的村民,于是每个村民到离自己家最近的布道点去听课。
听课之后,大家觉得距离太远了,于是每个牧师统计了一下自己的课上所有的村民的地址,搬到了所有地址的中心地带,并且在海报上更新了自己的布道点的位置。
牧师每一次移动不可能离所有人都更近,有的人发现A牧师移动以后自己还不如去B牧师处听课更近,于是每个村民又去了离自己最近的布道点……
就这样,牧师每个礼拜更新自己的位置,村民根据自己的情况选择布道点,最终稳定了下来。
牧师的目的非常明显,就是要让每个来上自己课的村民走的路程最少
算法步骤
指定k个中心点
更新数据点所属类别:计算每个数据点到这k个点的欧氏距离,距离最小即为这个数据点的类别
更新中心点坐标:对每一个类别的数据点求平均,平均值即为新的中心点位置
伪代码
获取m个n维的数据 随即选取k个点作为初始中心点 while keep_changing: for i in range(m): for j in range(k): 计算每个点到center的距离 判断离哪个点更近 for center in range(k): 更新类别中心点的坐标
用Python实现K-means聚类算法
import numpy as np import matplotlib.pyplot as plt import sklearn.datasets as datasets def create_data(): X,y = datasets.make_blobs(n_samples=1000,n_features=2,centers=[[1,0],[5,4],[2,3],[10,8],[7,4]]) return X,y def init_centers(data,k): m, n =data.shape # m 样本个数,n特征个数 center_ids = np.random.choice(m,k) centers = data[center_ids] return centers def cal_dist(ptA,ptB): return np.linalg.norm(ptA-ptB) def kmeans_process(data,k): centers = init_centers(data, k) m, n = data.shape keep_changing = True pred_y = np.zeros((m,)) iteration = 0 while keep_changing: keep_changing = False # 计算剩余样本所属类别 for i in range(m): min_distance = np.inf for center in range(k): distance = cal_dist(data[i,:],centers[center,:]) if distance
效果图
本文来自csdn,观点不代表一起大数据-技术文章心得立场,如若转载,请注明出处:https://blog.csdn.net/weixin_40756000/article/details/116484391
更多内容请访问:IT源点
注意:本文归作者所有,未经作者允许,不得转载