我有一个数据集,我想基于一个变量(没有缺失值)在该数据上创建聚类。我想基于该变量创建3个群集。
使用哪种聚类算法,k均值,EM,DBSCAN等?
我的主要问题是,在什么情况下我应该在EM上使用k-means还是在k-means上使用EM?
我有一个数据集,我想基于一个变量(没有缺失值)在该数据上创建聚类。我想基于该变量创建3个群集。
使用哪种聚类算法,k均值,EM,DBSCAN等?
我的主要问题是,在什么情况下我应该在EM上使用k-means还是在k-means上使用EM?
Answers:
对于一维聚类,K-means算法和EM算法将非常相似。
在K均值中,您首先猜测均值在哪里,然后将每个点分配给具有最均值的聚类,然后根据当前的点分配重新计算均值(和方差),然后更新点的分配,然后更新办法 ...
在EM中,您还应该从均值在哪里开始猜测,然后计算分配的期望值(基本上是每个点在每个聚类中的概率),然后使用期望值更新估计的均值(和方差)作为权重,然后计算新的期望值,然后计算新的均值,...
主要区别在于,将点分配给K-均值的聚类是全有还是全无,其中EM给出组成员资格的比例/概率(一个点可能被视为具有A组的80%概率,A组的18%概率在B组中的概率为2%,在C组中的概率为2%)。如果组之间存在很大的分离,则这两种方法将得出非常相似的结果。但是,如果有相当多的重叠,则EM可能会给出更有意义的结果(如果对方差/标准差感兴趣的话甚至会更多)。但是,如果您只关心分配组成员身份而不关心参数,那么K-means可能会更简单。
为什么不两者都做,看看答案有何不同?如果它们相似,则选择较简单的模型;如果它们不同,则决定将分组与数据和外部知识进行比较。
另一种简单的方法是基本上使用一维数组的排序:即遍历每个点并获得在正方向和负方向上与该点相距最小距离的值。例如:
data = [1,2,3,4,5,6,7,8,9,10,12]
k = 5
for a in data:
print {'group': sorted(k, key=lambda n: abs(n-a))[0:k], 'point': a}
将给出:
{'group': [1, 2, 3, 4, 5], 'point': 1}
{'group': [2, 1, 3, 4, 5], 'point': 2}
{'group': [3, 2, 4, 1, 5], 'point': 3}
{'group': [4, 3, 5, 2, 6], 'point': 4}
{'group': [5, 4, 6, 3, 7], 'point': 5}
{'group': [6, 5, 7, 4, 8], 'point': 6}
{'group': [7, 6, 8, 5, 9], 'point': 7}
{'group': [8, 7, 9, 6, 10], 'point': 8}
{'group': [9, 8, 10, 7, 6], 'point': 9}
{'group': [10, 9, 8, 12, 7], 'point': 10}
{'group': [12, 10, 9, 8, 7], 'point': 12}
哪一点,接近特定点的项目基本上在其组内。该技术中唯一需要考虑的是变量k,它是簇的固定大小:-)。