- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我一直在研究 scipy 的 kmeans2 算法,直到我发现一个问题。考虑以下代码:
x = np.array([[0.1, 0.0], [0.0, 0.1], [1.1, 1.0], [1.0, 1.1]])
c = np.array([[3,3], [4, 4]])
kmeans2(x, c, minit = 'matrix', iter=100)
您会期望此代码(相当不恰本地)收敛到具有以下质心的解决方案:[0.05, 0.05]
和 [1.05, 1.05]
。然而,代码返回这个:
(array([[ 0.55, 0.55],
[ 4. , 4. ]]), array([0, 0, 0, 0], dtype=int32))
看起来 k-means 算法在寻找新的质心时考虑了它的初始质心。为什么是这样?我怎样才能防止这种情况发生?
最佳答案
我已经有一段时间没有真正研究过这个了,但我随机得到了这个灵光一现的时刻,在这个时刻我弄清楚了为什么会出现我的问题:
虽然结果看起来有点奇怪,但如果你看一下 k-means 的工作原理,这些结果其实很容易解释:在 k-means 的第一个 epoch 中,四个数据点都分配给了 [3, 3 ]
质心,因为该质心最接近所有数据点。数据点的平均值为 [ 0.55, 0.55]
。无论你之后做了多少个 epoch,初始化为 [3, 3]
的质心将保持不变(因为它没有被任何其他数据点“吸引”,所以没有任何数据点)并且其他质心(初始化为 [4, 4]
)将保持不变,因为没有数据点比另一个更靠近这个质心。就是这样。
关于python - 使用 minit ='matrix' 时,scipy 的 kmeans2 算法是否也会权衡初始质心集?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41153546/
你好,stackoverflow 社区, 我在运行 kmeans (统计数据包)和 Kmeans (amap 包)在 Iris 数据集上。在这两种情况下,我使用相同的算法(Lloyd–Forgy)、相
我想将KMeans应用于具有Alpha蒙版的图像。它应该只对可见的颜色起作用。我希望能写成一行。起始图:。。天真地使用KMeans(哎呀,都是一种颜色):。。做实验。浏览所有Alpha选项。-Alph
我想将KMeans应用于具有Alpha蒙版的图像。它应该只对可见的颜色起作用。我希望能写成一行。起始图:。。天真地使用KMeans(哎呀,都是一种颜色):。。做实验。浏览所有Alpha选项。-Alph
在对一些具有 3 个簇的向量进行 K 均值拟合时,我能够获取输入数据的标签。KMeans.cluster_centers_ 返回中心的坐标,所以不应该有一些与之对应的向量吗?如何找到这些簇的质心处的值
我正在使用视频中的 kmeans 聚类技术,但我不明白为什么我们在 kmeans 聚类中使用 .fit 方法? kmeans = KMeans(n_clusters=5, random_state=0
MATLAB K-means 给出图像的准确结果,而使用 OpenCV c++ 的 k-means 不给出相同的结果,即使参数相同。实现上有什么不同吗? 最佳答案 Matlab 的 kmeans fu
我正在使用 scikit learn 的 Kmeans 算法对评论进行聚类。 sentence_list=['hello how are you', "I am doing great", "my n
来自 sklearn KMeans 的文档 class sklearn.cluster.KMeans(n_clusters=8, init='k-means++', n_init=10, max_it
我尝试使用 scikit-learn 实现并行运行 KMeans,但我不断收到以下错误消息: Traceback (most recent call last): File "run_kmeans
前言 K-means是一种经典的无监督学习算法,用于对数据进行聚类。K-means算法将数据集视为具有n个特征的n维空间,并尝试通过最小化簇内平方误差的总和来将数据点划分为簇。本文将介绍K-m
所以按照文档中的示例 (here): The KElbowVisualizer implements the “elbow” method to help data scientists select
我试图将数据点(通过欧几里得距离)分配给一组已知的、预定义的中心点,将点分配给最近的固定中心点。 我有一种感觉,我可能过于复杂/遗漏了一些基本的东西,但我已经尝试使用具有预定中心且没有迭代的 kmea
我想知道其他人在用 K-means 集群排序做什么。我正在制作热图(主要是 ChIP-Seq 数据)并使用自定义热图函数(基于 R 的内置热图函数)获得漂亮的数字。但是,我想要两个改进。第一个是根据递
我正在尝试用 Java 实现 KMeans,但遇到了一个导致所有结果都丢失的情况。当给定一些随机选择的初始化质心,数据进入其中一个质心实际上并未定义簇的状态时,就会发生这种情况。例如,如果 K=3,则
示例: load kmeansdata %provides X variable Y=bsxfun(@minus,X,mean(X,2))'/sqrt(size(X,2)-1); %normalize
我正在大数据集上运行 k-means。我是这样设置的: from sklearn.cluster import KMeans km = KMeans(n_clusters=500, max_iter
我有一组包含 50 个特征(c1、c2、c3 ...)的数据,超过 80k 行。 每行包含标准化数值(范围 0-1)。它实际上是一个标准化的虚拟变量,其中一些行只有很少的特征,3-4(即如果没有值则分
我想对我的数据集的特定列执行 K 均值。由于这些是分类数据,我计划对其进行 onehot_encoding。现在我想知道是否可以对特定列进行 K-means 并显示所有列的结果(例如一组)? 例如,我
使用 K 均值聚类生成 K 个簇,我们如何计算每个簇的面积?有公式吗? 我已经尝试过 gArea() 与 rgeos 包,但我收到错误代码“ unable to find an inherited m
我知道下定义的 KMeans 算法需要特征缩放sklearn.cluster.KMeans 我的问题是,在使用 KMeans 之前是否需要手动完成,或者 KMeans 是否会自动执行特征缩放?如果是自
我是一名优秀的程序员,十分优秀!