gpt4 book ai didi

json - 从spark scala中的多行文件中读取JSON文件

转载 作者:行者123 更新时间:2023-12-01 06:50:21 25 4
gpt4 key购买 nike

我正在学习 Scala 中的 spark。我有一个 JSON 文件如下:

[
{
"name": "ali",
"age": "13",
"phone": "09123455737",
"sex": "m"
},{
"name": "amir",
"age": "24",
"phone": "09123475737",
"sex": "m"
}
]

只有这段代码:

val sqlContext = new org.apache.spark.sql.SQLContext(sc)
val jsonFile = sqlContext.read.json("path-to-json-file")

我只收到 corrupted_row : String 没有别的但是当把每个人(或物体)放在一行时,代码工作正常

如何在 spark 中读取多行 JSON sqlContext?

最佳答案

您必须自己将其读入 RDD,然后将其转换为数据集:

spark.read.json(sparkContext.wholeTextFiles(...).values)          

关于json - 从spark scala中的多行文件中读取JSON文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39553486/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com