- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在处理一个大型数据集。不过,我将从一个小示例开始,以说明我要实现的目标。
我有以下向量:
season <- c("2019")
round <- c("1")
team <- c("Team A", "Team B", "Team C")
margin <- c(33, 56, 63)
score_A <- c(0.330, 0.256, 0.118)
score_B <- c(0.584, 0.176, 0.342)
score_C <- c(0.118, 0.193, 0.286)
然后我像这样创建了一个数据框:
df1 <- data.frame(season, round, team, score_A, score_B, score_C, margin)
然后我将权重应用于每个分数,例如:
df1$score_A <- df1$score_A * 0.25
df1$score_B <- df1$score_B * 0.5
df1$score_C <- df1$score_C * 0.75
然后我将所有分数相加并创建团队总分:
df1$score_total <- df1$score_A + df1$score_B + df1$score_C
library(dplyr)
df1 <- df1%>%group_by(season, round, team)%>%dplyr::mutate(score_Team_Total=sum(score_total))
我知道我可以这样计算 Pearson:
> cor(df1$margin, df1$score_Team_Total, method = "pearson")
[1] -0.5505451
虽然这不会给我逐行返回,但我不太确定如何计算它。
然而,这正是它开始变得棘手的地方。
我有一些权重,我想像这样应用于每个分数:
weightings <- c(0.25,0.5,0.75,1,1.25,1.5,2,2.5,3)
我对每个权重都有一些分数(score_A 一直到 score_R)。
第一个组合是:
df1$score_A <- df1$score_A * 0.25
df1$score_B <- df1$score_B * 0.25
df1$score_C <- df1$score_C * 0.25
第二种组合是:
df1$score_A <- df1$score_A * 0.25
df1$score_B <- df1$score_B * 0.25
df1$score_C <- df1$score_C * 0.5
第三种组合是:
df1$score_A <- df1$score_A * 0.25
df1$score_B <- df1$score_B * 0.5
df1$score_C <- df1$score_C * 0.5
等等。
但我如何才能获得每个组合的 Pearson 相关性并返回可能的最高 Pearson 值?
我知道会有数百万个组合,因为我运行了这个:
> length(permutations(7, 9, repeats.allowed = TRUE))
[1] 363182463
但我的权重中有 9 个不同的变量(0.25、0.5、0.75、1、1.25、1.5、2、2.5、3)和 18 个不同的分数(score_A 到 score_R)。
所以当我尝试时:
> length(permutations(9, 18, repeats.allowed = TRUE))
我收到这个错误:
Error: cannot allocate vector of size 73.7 Gb
所以我知道这个数字会非常大。
我需要将每种权重组合应用于分数,然后创建总分并计算 Pearson。
我认为包含结果的数据框或列表太大,那么有没有办法返回最佳组合?输出看起来像这样:
score_A score_B score_C pearson
weighting 0.25 0.50 0.25 0.63
我对 R 和学习还很陌生,所以我不太确定从这里到哪里去。
最佳答案
您应该意识到您正在尝试探索 9^18
排列,即:
options(scipen = 999)
9^18
# [1] 150094635296999136
探索其中的一个子集怎么样?以下代码生成 18^7
您的权重
组合:
set.seed(1)
n_scores <- 18
p <- 7
aux <- matrix(sample(weightings, n_scores^p, replace = TRUE), ncol = n_scores)
# First combination
aux[1,]
[1] 3.00 2.00 0.50 1.00 1.25 2.00 1.50 2.50 0.25 0.75 3.00 2.50 1.25 3.00
[15] 0.75 2.50 0.50 0.50
然后,您可以多次重复这种较小的探索,并查看几个最佳组合的相似性以获得一些见解。
根据@Michael 的评论进行编辑:
首先,我将您的玩具示例修改为有一个额外的行:
season <- c("2019")
round <- c("1")
team <- c("Team A", "Team B", "Team C", "Team D")
margin <- c(33, 56, 63, 50)
score_A <- c(0.330, 0.256, 0.118, 0.2)
score_B <- c(0.584, 0.176, 0.342, 0.15)
score_C <- c(0.118, 0.193, 0.286, 0.2)
df1 <- data.frame(season, round, team, score_A, score_B, score_C, margin)
然后,我生成了 9 组权重:
weightings <- c(0.25,0.5,0.75,1,1.25,1.5,2,2.5,3)
set.seed(1)
n_scores <- 3
p <- 3
aux1 <- matrix(sample(weightings, n_scores^p, replace = TRUE), ncol = n_scores)
colnames(aux1) <- c("score_A", "score_B", "score_C")
最后,我执行主要操作
aux2 <- cbind(df1$score_A, df1$score_B, df1$score_C)
df2 <- data.frame(aux1,
pearson = c(cor(df1$margin, apply(aux1, 1, function(x) rowSums(t(x*t(aux2)))))))
df2
# score_A score_B score_C pearson
# 1 3.00 1.25 1.25 -0.8473964
# 2 1.00 1.25 1.25 -0.6385250
# 3 2.00 1.50 0.50 -0.8222945
# 4 0.25 2.00 3.00 -0.2510155
# 5 0.50 3.00 0.25 -0.6804298
# 6 2.00 1.25 1.00 -0.8025296
# 7 0.50 1.25 0.75 -0.6260844
# 8 0.75 3.00 1.50 -0.6088807
# 9 0.25 3.00 1.50 -0.5591034
根据@Michael 的第二条评论进行编辑:
如上创建aux2
后,生成aux3
如下。在 aux3
中,您将拥有与您正在探索的权重集数量一样多的名为 w_x
的列,而且还有来自 df1
的原始列你应该需要你的下一次计算。每个 w_x
都是分数的加权和:
aux3 <- apply(aux1, 1, function(x) rowSums(t(x*t(aux2))))
colnames(aux3) <- paste0("w_", 1:ncol(aux3))
df1 %>%
select(season, round, team, margin) %>%
cbind(aux3) -> aux3
aux3
# season round team margin w_1 w_2 w_3 w_4 w_5 w_6
# 1 2019 1 Team A 33 1.86750 1.20750 1.5950 1.6045 1.94650 1.5080
# 2 2019 1 Team B 56 1.22925 0.71725 0.8725 0.9950 0.70425 0.9250
# 3 2019 1 Team C 63 1.13900 0.90300 0.8920 1.5715 1.15650 0.9495
# 4 2019 1 Team D 50 1.03750 0.63750 0.7250 0.9500 0.60000 0.7875
# w_7 w_8 w_9
# 1 0.98350 2.1765 2.0115
# 2 0.49275 1.0095 0.8815
# 3 0.70100 1.5435 1.4845
# 4 0.43750 0.9000 0.8000
关于r - 找到最佳方法来计算 R 中数百万个组合的最高 Pearson 相关性,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62906226/
我计算 Pearson correlation (平均用户/项目评级)很多次,使用我当前的代码性能非常糟糕: public double ComputeCorrelation(double[] x,
我有一个 4×3 矩阵,X ,并希望形成 3×3 Pearson 相关矩阵,C ,通过计算 X 的所有 3 个可能的列组合之间的相关性获得.但是,条目 C对应于统计上不显着的相关性应该设置为零。 我知
我有一个 2396x34 double matrix命名 y其中每一行 (2396) 代表一个单独的情况,由 34 个连续的时间段组成。 我也有 numeric[34]命名 x这代表了 34 个连续时
我刚开始用 R 编码,我有一个关于一次将卡方检验应用于 2 列数据集的问题。 我想做配对分析(肿瘤和正常样本来自同一患者,因此原发肿瘤 1 和正常组织 1 来自同一患者)。我希望看到来自同一患者的肿瘤
我想使用 R 来找到 Pearson 相关系数的临界值。 这已被证明很难在搜索引擎中找到,因为皮尔逊相关系数的标准变量本身就是 r。反过来,我找到了很多 r 临界值表(而不是如何通过使用统计包 R 找
我在 PIL 森相关图中无法标出化学名称。如果有人可以提供帮助,那就太好了: colnames(JO_Data) = c("CO2","Cumulative CO2", "N2O", "Cumulat
我有两组栅格,都具有相同的 x、y、z 范围。我制作了两个堆栈:stacka 和 stackb。我想计算时间线上两个堆栈之间的每个网格单元格中的 Pearson 相关系数 ( PCC )。我做了一个更
我在 PIL 森相关图中无法标出化学名称。如果有人可以提供帮助,那就太好了: colnames(JO_Data) = c("CO2","Cumulative CO2", "N2O", "Cumulat
我有两个数组,我想对其进行 PIL 逊卡方检验(拟合优度)。我想测试预期结果和观察到的结果是否存在显着差异。 observed = [11294, 11830, 10820, 12875] expec
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 7 年前。 Improve this qu
我正在开发一种编程语言,在我的编程语言中,我将对象存储为哈希表。我使用的哈希函数是 Pearson Hashing ,这取决于 256 位查找表。这是函数: char* pearson(char* n
早上好。这是我的问题:我有几个文件,如下所示: 104 0.1697 12.3513214 15.9136214 112 -0.3146 12.0517303 14.8027303 122 0.271
我正在尝试获取 R 中变量之间的 PIL 逊相关系数。这是变量的散点图: ggplot(results_summary, aes(x =D_in, y = D_ex)) + geom_point(co
我使用 Mahout 和 Pearson 相关算法来根据用户对多个项目的偏好来比较和查找相似用户。我遇到的问题是 Mahout 和/或 Pearson 忽略了为每个项目选择相同偏好的用户。有谁知道是否
我实现了 Pearson 的相似度评分来比较两个值字典。此方法花费的时间比其他任何地方都多(可能有数百万次调用),因此这显然是需要优化的关键方法。 即使是最细微的优化也会对我的代码产生重大影响,因此我
我正在尝试获取前一周输入与下周输出的相关值。 为了这个例子,我将其设置为每周的输入将是下一周的输出,df.corr() 应该给出 1.000000 结果。 我的原始数据是这样的: Date
我想计算Pearson's correlation coefficent在 Matlab 中(不使用 Matlab 的 corr 函数)。 简单地说,我有两个向量 A 和 B(每个向量都是 1x100
是否有可能在预排序序列中给定数量的元素和该序列的倒置数或 Pearson r 找到最佳排序算法? 例如,我有一个预排序的 262143 元素序列。 最大反转数由 (n(n-1))/2 提供,其中 n
我正在尝试编写一个程序来加载 2 个文本文件,将这些文件中的数字转换为 2 个列表,然后计算这些列表之间的 PIL 逊相关。 pearson 函数只能接受 float ,所以我创建了一个名为 floa
我正在尝试在php中实现两组数据之间人员相关系数的计算。我只是想做可以在这个 url 上找到的移植 python 脚本 http://answers.oreilly.com/topic/1066-ho
我是一名优秀的程序员,十分优秀!