- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我可以很容易地使用 KMeans
计算集群成员:
open System
open System.IO
open Utils
open Accord
open Accord.Math
open Accord.MachineLearning
let vals = [|
[|1.0; 2.0; 3.0; 2.0|]
[|1.1; 1.9; 3.1; 4.0|]
[|2.0; 3.0; 4.0; 4.0|]
[|3.0; 3.1; 2.0; 3.0|]
[|2.0; 4.0; 3.0; 6.0|]
[|1.0; 5.0; 5.0; 7.0|]
[|4.0; 3.0; 6.0; 8.0|]
[|5.0; 4.0; 3.0; 6.0|]
[|6.0; 4.0; 8.0; 7.0|]
[|5.0; 6.0; 5.0; 9.0|]
[|4.0; 2.0; 7.0; 8.0|]
[|8.0; 9.0; 3.1; 2.2|]
[|8.0; 9.0; 2.0; 2.0|]
[|10.0; 2.0; 3.0; 2.0|]
[|10.1; 1.9; 3.1; 4.0|]
[|20.0; 3.0; 4.0; 4.0|]
[|22.0; 7.0; 2.0; 3.0|]
[|21.0; 4.0; 3.0; 6.0|]
|]
let kmeans = new KMeans 5
let clusterModel = kmeans.Learn vals
let clusters = clusterModel.Decide vals
我可以使用标准 KMeans
算法计算部分成员资格吗?一位同事建议使用集群成员的均值和方差来确定比例成员,今天我一直在研究模糊集及其在 F#
中的实现。例如,here is some documentation for the Accord.net implementation for fuzzy sets.我可以翻译/运行 F#
的示例,但乍一看,我没有看到一种简单的方法来从上面运行的 Kmeans
中获取数据以适应以下格式分配部分成员资格。
问题:
我如何使用聚类成员的均值/方差来计算部分成员资格?
是否有使用 Accord.net 库使用 KMeans
聚类计算部分成员资格的简单方法?
Accord.net 中的 KMeans 算法实现简单;我应该花一些时间尝试学习这种聚类/成员关系方法来解决我的问题,而不是尝试强制 Kmeans 聚类来满足我的需要吗?
最佳答案
正如 Tomas 所提到的,Accord.NET 已经为您提供了许多构建 block 。特别是,调用 clusterModel.Scores
可为您提供到集群质心的(负)距离,see source code
根据负距离,您可以通过取指数来计算近似的类成员分数,类似于您计算高斯 PDF 的方法。在 F# 中,它看起来像:
// Scores returns the negative distances between each point
// and the cluster centroid
let negDistances = clusterModel.Scores vals
// Compute an estimated cluster assigment score
let clusterMembership =
negDistances
|> Array.map (fun distances ->
// Take the Exponential of the (negative) distances,
// as in computing a Gaussian pdf
let expDist = distances |> Array.map Math.Exp
let total = Array.sum expDist
expDist
|> Array.map (fun d -> d/total)
)
这里有几个注意事项:
关于您的第三个问题:我不会重新实现。最初看起来很容易,但通常会有很多极端情况和稳定性问题,您只会在一段时间后才会遇到。
关于c# - 使用 KMeans 聚类算法查找部分成员资格,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41248146/
你好,stackoverflow 社区, 我在运行 kmeans (统计数据包)和 Kmeans (amap 包)在 Iris 数据集上。在这两种情况下,我使用相同的算法(Lloyd–Forgy)、相
我想将KMeans应用于具有Alpha蒙版的图像。它应该只对可见的颜色起作用。我希望能写成一行。起始图:。。天真地使用KMeans(哎呀,都是一种颜色):。。做实验。浏览所有Alpha选项。-Alph
我想将KMeans应用于具有Alpha蒙版的图像。它应该只对可见的颜色起作用。我希望能写成一行。起始图:。。天真地使用KMeans(哎呀,都是一种颜色):。。做实验。浏览所有Alpha选项。-Alph
在对一些具有 3 个簇的向量进行 K 均值拟合时,我能够获取输入数据的标签。KMeans.cluster_centers_ 返回中心的坐标,所以不应该有一些与之对应的向量吗?如何找到这些簇的质心处的值
我正在使用视频中的 kmeans 聚类技术,但我不明白为什么我们在 kmeans 聚类中使用 .fit 方法? kmeans = KMeans(n_clusters=5, random_state=0
MATLAB K-means 给出图像的准确结果,而使用 OpenCV c++ 的 k-means 不给出相同的结果,即使参数相同。实现上有什么不同吗? 最佳答案 Matlab 的 kmeans fu
我正在使用 scikit learn 的 Kmeans 算法对评论进行聚类。 sentence_list=['hello how are you', "I am doing great", "my n
来自 sklearn KMeans 的文档 class sklearn.cluster.KMeans(n_clusters=8, init='k-means++', n_init=10, max_it
我尝试使用 scikit-learn 实现并行运行 KMeans,但我不断收到以下错误消息: Traceback (most recent call last): File "run_kmeans
前言 K-means是一种经典的无监督学习算法,用于对数据进行聚类。K-means算法将数据集视为具有n个特征的n维空间,并尝试通过最小化簇内平方误差的总和来将数据点划分为簇。本文将介绍K-m
所以按照文档中的示例 (here): The KElbowVisualizer implements the “elbow” method to help data scientists select
我试图将数据点(通过欧几里得距离)分配给一组已知的、预定义的中心点,将点分配给最近的固定中心点。 我有一种感觉,我可能过于复杂/遗漏了一些基本的东西,但我已经尝试使用具有预定中心且没有迭代的 kmea
我想知道其他人在用 K-means 集群排序做什么。我正在制作热图(主要是 ChIP-Seq 数据)并使用自定义热图函数(基于 R 的内置热图函数)获得漂亮的数字。但是,我想要两个改进。第一个是根据递
我正在尝试用 Java 实现 KMeans,但遇到了一个导致所有结果都丢失的情况。当给定一些随机选择的初始化质心,数据进入其中一个质心实际上并未定义簇的状态时,就会发生这种情况。例如,如果 K=3,则
示例: load kmeansdata %provides X variable Y=bsxfun(@minus,X,mean(X,2))'/sqrt(size(X,2)-1); %normalize
我正在大数据集上运行 k-means。我是这样设置的: from sklearn.cluster import KMeans km = KMeans(n_clusters=500, max_iter
我有一组包含 50 个特征(c1、c2、c3 ...)的数据,超过 80k 行。 每行包含标准化数值(范围 0-1)。它实际上是一个标准化的虚拟变量,其中一些行只有很少的特征,3-4(即如果没有值则分
我想对我的数据集的特定列执行 K 均值。由于这些是分类数据,我计划对其进行 onehot_encoding。现在我想知道是否可以对特定列进行 K-means 并显示所有列的结果(例如一组)? 例如,我
使用 K 均值聚类生成 K 个簇,我们如何计算每个簇的面积?有公式吗? 我已经尝试过 gArea() 与 rgeos 包,但我收到错误代码“ unable to find an inherited m
我知道下定义的 KMeans 算法需要特征缩放sklearn.cluster.KMeans 我的问题是,在使用 KMeans 之前是否需要手动完成,或者 KMeans 是否会自动执行特征缩放?如果是自
我是一名优秀的程序员,十分优秀!