gpt4 book ai didi

matlab - 如何获得最终的特征?

转载 作者:行者123 更新时间:2023-11-30 09:37:43 32 4
gpt4 key购买 nike

原始数据为YY的大小为L*n(n为数字)特征数;L 是观测值的数量。B 是原始数据 Y 的协方差矩阵。假设 A > 是协方差矩阵 B 的特征向量。我将 A 表示为 A = (e1, e2,...,en),其中ei 是一个特征向量。矩阵 Aq 是第一个 q 特征向量,ai 的行向量Aq:Aq = (e1,e2,...,eq) = (a1,a2,...,an)'。我想将 k-means 算法应用于Aq 将行向量 ai 聚类到 k 个簇或更多(注意:我不想将 k-means 算法应用于特征向量eik 个簇),对于每个簇,只保留最接近簇中心的向量,最终选择该向量对应的特征作为信息特征。

我的问题是:

1) 将 k-means 算法应用于 Aq 将行向量 ai 聚类到 k 簇与应用k-means 算法到 Aq 将特征向量 ei 聚类到 k 簇?

2)我得到的closest_vectors来自这个命令:closest_vectors = Aq(min_idxs, :)closest_vectors的大小是k*q double 。如何获得最终的信息特征?由于最终的信息特征必须从原始数据Y中获得。

谢谢!

我发现了两个关于pca和pfa的函数:

function [e m lambda, sqsigma] = cvPca(X, M)

[D, N] = size(X);

if ~exist('M', 'var') || isempty(M) || M == 0
M = D;
end
M = min(M,min(D,N-1));

%% mean subtraction
m = mean(X, 2); %%% calculate the mean of every row

X = X - repmat(m, 1, N);

%% singular value decomposition. X = U*S*V.' or X.' = V*S*U.'
[U S V] = svd(X,'econ');

e = U(:,1:M);

if nargout > 2
s = diag(S);

s = s(1:min(D,N-1));

lambda = s.^2 / N; % biased (1/N) estimator of variance

end

% sqsigma. Used to model distribution of errors by univariate Gaussian
if nargout > 3
d = cvPcaDist(X, e, m); % Use of validation set would be better

N = size(d,2);

sqsigma = sum(d) / N; % or (N-1) unbiased est

end
end

%///////////////////////////////////////////////////////////////////////////////////////

function [IDX, Me] = cvPfa(X, p, q)
[D, N] = size(X);
if ~exist('p', 'var') || isempty(p) || p == 0
p = D;
end
p = min(p, min(D, N-1));
if ~exist('q', 'var') || isempty(q)
q = p - 1;
end

%% PCA step
[U Me, Lambda] = cvPca(X, q);

%% cluter row vectors (q x D). not col
[Cl, Mu] = kmeans(U, p, 'emptyaction', 'singleton', 'distance', 'sqEuclidean');

%% find axis which are nearest to mean vector
IDX = logical(zeros(D,1));
for i = 1:p
Cli = find(Cl == i);
d = cvEucdist(Mu(i,:).', U(Cli,:).');
[mini, argmin] = min(d);
IDX(Cli(argmin)) = 1;
end

最佳答案

总结 Olologin 的评论,对协方差矩阵的特征向量或 SVD 的 U 矩阵的列进行聚类是没有意义的。在这种情况下,特征向量都是正交的,因此如果您尝试对它们进行聚类,每个聚类只能得到一个成员,并且该聚类的质心由特征向量本身定义。

现在,您真正想要的是选择数据矩阵中的特征,这些特征可以根据歧视性分析来描述您的数据。

您提供的函数既可以计算 SVD,也可以提取数据的 k 主要成分,并确定从这些 k 中选择哪些特征作为最突出。默认情况下,要选择的功能数量等于k,但如果需要,您可以覆盖此设置。让我们坚持使用默认值。

cvPfa 函数为您执行此特征选择,但会警告您,该函数中的数据矩阵的组织方式为每行是一个特征,每个< strong>列是一个示例。输出是一个逻辑向量,它告诉您数据中哪些特征最适合选择。

简单地说,你只需这样做:

k = 10; %// Example
IDX = cvPfa(Y.', k);
Ynew = Y(:,IDX);

此代码将选择数据矩阵中 10 个最突出的特征,并选出最能代表数据或最具辨别力的这 10 个特征。然后,您可以将输出用于您要定位的任何应用程序。

关于matlab - 如何获得最终的特征?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31899296/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com