gpt4 book ai didi

r - 为什么 ml_create_dummy_variables 在 Sparklyr 中不显示新的虚拟变量列

转载 作者:行者123 更新时间:2023-11-30 08:36:18 26 4
gpt4 key购买 nike

我正在尝试在 Sparklyr 中创建模型矩阵。有一个函数 ml_create_dummy_variables() 用于一次为一个分类变量创建虚拟变量。据我所知,没有 model.matrix() 等效于一步创建模型矩阵。使用 ml_create_dummy_variables() 很容易,但我不明白为什么新的虚拟变量没有存储在 Spark 数据框中。

考虑这个例子:

    ###create dummy data to figure out how model matrix formulas work in sparklyr

v1 <- sample( LETTERS[1:4], 50000, replace=TRUE, prob=c(0.1, 0.2, 0.65, 0.05))
v2 <- sample( LETTERS[5:6], 50000, replace=TRUE, prob=c(0.7,0.3))
v3 <- sample( LETTERS[7:10], 50000, replace=TRUE, prob=c(0.3, 0.2, 0.4, 0.1))
v4 <- sample( LETTERS[11:15], 50000, replace=TRUE, prob=c(0.1, 0.1, 0.3, 0.05,.45))
v5 <- sample( LETTERS[16:17], 50000, replace=TRUE, prob=c(0.4,0.6))
v6 <- sample( LETTERS[18:21], 50000, replace=TRUE, prob=c(0.1, 0.1, 0.65, 0.15))
v7 <- sample( LETTERS[22:26], 50000, replace=TRUE, prob=c(0.1, 0.2, 0.65, 0.03,.02))
v8 <- rnorm(n=50000,mean=.5,sd=.1)
v9 <- rnorm(n=50000,mean=5,sd=3)
v10 <- rnorm(n=50000,mean=3,sd=.5)
response <- rnorm(n=50000,mean=10,sd=2)

dat <- data.frame(v1,v2,v3,v4,v5,v6,v7,v8,v9,v10,response)
write.csv(dat,file='fake_dat.csv',row.names = FALSE)

#push "fake_dat.csv" to the hdfs

library(dplyr)
library(sparklyr)
#configure the spark session and connect
config <- spark_config()
config$`sparklyr.shell.driver-memory` <- "2G" #change depending on the size of the data
config$`sparklyr.shell.executor-memory` <- "2G"

sc <- spark_connect(master='yarn-client', spark_home='/usr/hdp/2.5.0.0-1245/spark',config = config)
sc

#can also set spark_home as ‘/usr/hdp/current/spark-client’

#read in the data from the hdfs
df <- spark_read_csv(sc,name='fdat',path='hdfs://pnhadoop/user/stc004/fake_dat.csv')

#create spark table
dat <- tbl(sc,'fdat')

#create dummy variables
ml_create_dummy_variables(x=dat,'v1', reference = NULL)

现在我从 Sparklyr 收到以下通知:

Source:   query [5e+04 x 15]
Database: spark connection master=yarn-client app=sparklyr local=FALSE

v1 v2 v3 v4 v5 v6 v7 v8 v9 v10
<chr> <chr> <chr> <chr> <chr> <chr> <chr> <dbl> <dbl> <dbl>
1 A F I O Q T X 0.4518162 12.281566 3.915094
2 C E H L Q T X 0.3967605 2.131341 3.373347
3 C F I O P S W 0.4458047 7.167670 2.737003
4 C E G M P T X 0.4822457 5.946978 2.375309
5 B E H L P U W 0.4756011 9.456327 2.406996
6 C F H L P U X 0.5064916 2.920591 3.111827
7 C F I O Q T W 0.3060585 1.611517 2.242328
8 B F J L Q T V 0.6238052 9.821750 2.670400
9 C E I O Q U X 0.4249922 2.141794 3.020958
10 B F G K P T X 0.5348334 1.461034 3.057635
# ... with 4.999e+04 more rows, and 5 more variables: response <dbl>,
# v1_A <dbl>, v1_B <dbl>, v1_C <dbl>, v1_D <dbl>

当我检查列数时,新的虚拟变量不会出现。

> colnames(dat)
[1] "v1" "v2" "v3" "v4" "v5" "v6"
[7] "v7" "v8" "v9" "v10" "response"
>

为什么会发生这种情况?另外,是否有一种简单的方法可以一步转换所有列?我使用超过 1000 个变量的数据集,因此我需要一种快速的方法来完成此操作。我尝试过创建一个循环,但这没有任何作用:

for(i in 1:7){
ml_create_dummy_variables(x=dat,colnames(dat)[i],reference=NULL)
}

最佳答案

ml_create_dummy_variables 不会修改现有表,而是创建表,并且您的代码只是丢弃结果。您必须存储结果:

tmp <- ml_create_dummy_variables(x=dat,'v1', reference = NULL)

Also, is there an easy way to convert all columns in one step? I work with datasets of >1000 variables so I need a quick way to do this

Loop 或 Reduce 就可以了,但没有快速的方法来做到这一点。要创建虚拟人,您必须[首先确定所有可能的级别,这需要 a full column scan for each variable

此外,对于超过 1000 列,特别是对于大量级别,您开始遇到 Spark 优化器的不同限制。 sparklyr(与使用 Vector UDT 的 Spark ML 不同)expands all columns而且这不能很好地扩展。

关于r - 为什么 ml_create_dummy_variables 在 Sparklyr 中不显示新的虚拟变量列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42701698/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com