gpt4 book ai didi

json - 如何在 Spark 中将复杂的 json 或复杂对象保存为 Parquet?

转载 作者:行者123 更新时间:2023-12-03 03:38:30 25 4
gpt4 key购买 nike

我是 Spark 新手,我试图弄清楚是否有办法在 Spark 中将复杂对象(嵌套)或复杂 json 保存为 Parquet。我知道 Kite SDK,但我知道它使用 Map/Reduce。

我环顾四周,但找不到解决方案。

感谢您的帮助。

最佳答案

case class Address(city:String, block:String);
case class Person(name:String,age:String, address:Address);
val people = sc.parallelize(List(Person("a", "b", Address("a", "b")), Person("c", "d", Address("c", "d"))));

val df = sqlContext.createDataFrame(people);
df.write.mode("overwrite").parquet("/tmp/people.parquet")

这个答案很有帮助。 Spark SQL: Nested classes to parquet error

但是很难找到,所以我在这里回答了我自己的问题。希望这可以帮助其他人寻找示例。

关于json - 如何在 Spark 中将复杂的 json 或复杂对象保存为 Parquet?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43385035/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com