gpt4 book ai didi

r - 在 sparkR 中加载 csv 文件

转载 作者:行者123 更新时间:2023-12-04 12:01:16 25 4
gpt4 key购买 nike

在 R 中,我创建了两个数据集,并通过

保存为 csv 文件
liste <-write.csv(liste, file="/home/.../liste.csv", row.names=FALSE)
data <- write.csv(data, file="/home/.../data.csv", row.names=FALSE)

我现在想在 SparkR 中打开这些 csv 文件。所以我输入

liste <- read.df(sqlContext, "/home/.../liste.csv", "com.databricks.spark.csv", header="true", delimiter= "\t")

data <- read.df(sqlContext, "/home/.../data.csv", "com.databricks.spark.csv", header="true", delimiter= "\t")

事实证明,在SparkR中成功加载了一个数据集'liste',但是由于某些奇怪的原因无法加载'data'。

'liste' 只是 R 中的数字向量,而 'data' 是我在 R 中加载并删除了 data.frame 的某些部分的 data.frame。 SparkR 给我这个错误信息:

Error: returnStatus == 0 is not TRUE

最佳答案

Liste 是一个本地列表,可以用 write.csv 写入,data 是一个 SparkR DataFrame,不能用 write.csv 写入:它只写入它的指针,而不写入 DataFrame。这就是为什么它只有 33 kb

关于r - 在 sparkR 中加载 csv 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31913541/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com