gpt4 book ai didi

r - 从 R 中的主要载荷构建分数

转载 作者:行者123 更新时间:2023-12-01 05:05:04 25 4
gpt4 key购买 nike

我想了解 psych 包中的 principal() 函数如何计算 $score 元素。

我想尝试协方差矩阵而不是相关矩阵。

model <- principal(mtcars[8:11],nfactors=4, rotate='none', scores=T, cov=T)

基本上,PCA的分数应该是原始中心数据的线性组合,使用加载矩阵作为权重,所以我尝试了:
test <- scale(mtcars[8:11], center=T, scale=F) %*% model$loadings / model$scores

据我所知 principal()函数对加载使用某种缩放,但是,每一列的比率应该仍然相同, test 的情况并非如此。 .

如果我使用相关矩阵,这将不是问题。例如:
model <- principal(mtcars[8:11],nfactors=4, rotate='none', scores=T, cov=F)
test <- scale(mtcars[8:11], center=T, scale=T) %*% model$loadings / model$scores

帮助文档使用了因子分析的术语,这让我更加困惑。希望有人能在这里启发我。

先感谢您!

最佳答案

您在 psych 中发现了一个错误包裹。对于非标准化(协方差)解决方案,发现的分数不正确。这将在下一个版本中修复(至少一个月内不会发布)。在此期间,您可以使用载荷矩阵和(居中的)原始数据手动查找分数。

model <- principal(mtcars[8:11],nfactors=4, rotate='none', scores=T, cov=T)
L <- model$loadings # Just get the loadings matrix
S <- model$scores # This gives an incorrect answer in the current version

d <- mtcars[8:11] # get your data
dc <- scale(d,scale=FALSE) # center the data but do not standardize it
sc <- dc %*% L # scores are the centered data times the loadings
lowerCor(sc) #These scores, being principal components
# should be orthogonal
PC1 PC2 PC3 PC4
PC1 1
PC2 0 1
PC3 0 0 1
PC4 0 0 0 1

当您发现问题时 psych这里没有回答,写信给我(包开发人员)很有用。

请注意,对于未旋转的解决方案,组件载荷也是正交的(应该如此)。
factor.congruence(L,L)
PC1 PC2 PC3 PC4
PC1 1 0 0 0
PC2 0 1 0 0
PC3 0 0 1 0
PC4 0 0 0 1

(Burt 的因子一致性度量,也称为塔克系数,采用(非中心)载荷的内积,然后除以相应列的平方和)。您还可以找到 Loadings 的叉积
round( t(L) %*% L,3)
PC1 PC2 PC3 PC4
PC1 2.742 0.000 0.000 0.000
PC2 0.000 0.721 0.000 0.000
PC3 0.000 0.000 0.142 0.000
PC4 0.000 0.000 0.000 0.051

关于r - 从 R 中的主要载荷构建分数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29726695/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com