gpt4 book ai didi

json - 如何在Spark上将JSON字符串转换为数据帧

转载 作者:行者123 更新时间:2023-12-03 07:29:52 25 4
gpt4 key购买 nike

我想将下面的字符串变量转换为spark上的dataframe。

val jsonStr = "{ "metadata": { "key": 84896, "value": 54 }}"

我知道如何从json文件创建数据框。
sqlContext.read.json("file.json")

但我不知道如何从字符串变量创建数据框。

如何将json字符串变量转换为dataframe。

最佳答案

对于Spark 2.2+:

import spark.implicits._
val jsonStr = """{ "metadata": { "key": 84896, "value": 54 }}"""
val df = spark.read.json(Seq(jsonStr).toDS)

对于 Spark 2.1.x:
val events = sc.parallelize("""{"action":"create","timestamp":"2016-01-07T00:01:17Z"}""" :: Nil)    
val df = sqlContext.read.json(events)

Hint: this is using sqlContext.read.json(jsonRDD: RDD[Stirng]) overload. There is also sqlContext.read.json(path: String) where it reads a Json file directly.



对于 older versions:
val jsonStr = """{ "metadata": { "key": 84896, "value": 54 }}"""
val rdd = sc.parallelize(Seq(jsonStr))
val df = sqlContext.read.json(rdd)

关于json - 如何在Spark上将JSON字符串转换为数据帧,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38271611/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com