- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在 scala 中使用 Spark 1.6。
我用一个对象在 ElasticSearch 中创建了一个索引。对象“params”被创建为 Map[String, Map[String, String]]。示例:
val params : Map[String, Map[String, String]] = ("p1" -> ("p1_detail" -> "table1"), "p2" -> (("p2_detail" -> "table2"), ("p2_filter" -> "filter2")), "p3" -> ("p3_detail" -> "table3"))
这给我的记录如下所示:
{
"_index": "x",
"_type": "1",
"_id": "xxxxxxxxxxxx",
"_score": 1,
"_timestamp": 1506537199650,
"_source": {
"a": "toto",
"b": "tata",
"c": "description",
"params": {
"p1": {
"p1_detail": "table1"
},
"p2": {
"p2_detail": "table2",
"p2_filter": "filter2"
},
"p3": {
"p3_detail": "table3"
}
}
}
},
然后我尝试读取 Elasticsearch 索引以更新值。
Spark 使用以下模式读取索引:
|-- a: string (nullable = true)
|-- b: string (nullable = true)
|-- c: string (nullable = true)
|-- params: struct (nullable = true)
| |-- p1: struct (nullable = true)
| | |-- p1_detail: string (nullable = true)
| |-- p2: struct (nullable = true)
| | |-- p2_detail: string (nullable = true)
| | |-- p2_filter: string (nullable = true)
| |-- p3: struct (nullable = true)
| | |-- p3_detail: string (nullable = true)
我的问题是对象被读取为结构。为了管理和轻松更新字段,我想要一个 Map,因为我对 StructType 不是很熟悉。
我试图将 UDF 中的对象作为 Map 获取,但出现以下错误:
User class threw exception: org.apache.spark.sql.AnalysisException: cannot resolve 'UDF(params)' due to data type mismatch: argument 1 requires map<string,map<string,string>> type, however, 'params' is of struct<p1:struct<p1_detail:string>,p2:struct<p2_detail:string,p2_filter:string>,p3:struct<p3_detail:string>> type.;
UDF 代码片段:
val getSubField : Map[String, Map[String, String]] => String = (params : Map[String, Map[String, String]]) => { val return_string = (params ("p1") getOrElse("p1_detail", null.asInstanceOf[String]) return_string }
我的问题:我们如何将这个 Struct 转换为 Map?我已经阅读过文档中提供的 toMap 方法,但由于我是 Scala 初学者,所以找不到如何使用它(对隐式参数不是很熟悉)。
提前致谢
最佳答案
最后我是这样解决的:
def convertRowToMap[T](row: Row): Map[String, T] = {
row.schema.fieldNames
.filter(field => !row.isNullAt(row.fieldIndex(field)))
.map(field => field -> row.getAs[T](field))
.toMap
}
/* udf that converts Row to Map */
val rowToMap: Row => Map[String, Map[String, String]] = (row: Row) => {
val mapTemp = convertRowToMap[Row](row)
val mapToReturn = mapTemp.map { case (k, v) => k -> convertRowToMap[String](v) }
mapToReturn
}
val udfrowToMap = udf(rowToMap)
关于scala - Spark scala - 嵌套的 StructType 转换为 Map,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46566374/
我正在尝试创建一个 StructType在另一个 StructType ,但它只允许添加 StructField .我找不到任何添加 StructType 的方法到它。 如何创建 StructType
假设我有一个结构 public struct Foo { ... } 有什么区别吗 Foo foo = new Foo(); 和 Foo foo = default(Foo); ? 最佳答案
好像StructType保留顺序,所以两个 StructType包含相同的 StructField s 不被认为是等效的。 例如: val st1 = StructType( StructField(
如何解决这个问题? rdd.collect() //['3e866d48b59e8ac8aece79597df9fb4c'...] rdd.toDF() //Can not infer sch
我正在尝试构建用于数据库测试的架构,而 StructType 显然由于某种原因无法正常工作。我正在关注 tut,它不会导入任何额外的模块。 , NameError("name 'StructType'
在将 StructType 传递给架构方法时出现错误:TypeError: 'StructType' object is not callable。下面是代码: final_schema = Stru
这个问题已经有答案了: pyspark collect_set or collect_list with groupby (2 个回答) 已关闭 4 年前。 我正在尝试做一些看起来非常简单的事情,但不
使用 StructType structInstance = {}; 初始化结构的行为是什么?它只是使用默认构造函数和/或将所有成员数据初始化为 null 吗?有关 Vulkan 教程中的示例,请参阅
我是 spark 和 python 的新手,面临着从可应用于我的数据文件的元数据文件构建模式的困难。场景:数据文件的元数据文件(csv 格式),包含列及其类型:例如: id,int,10,"","",
spark.sql.types package 中有一个merge 方法: private[sql] def merge(that: StructType): StructType 它是私有(priv
我需要解析 JSON schema文件以创建 pyspark.sql.types.StructType。我找到了 scala library可以为我做这个。所以我这样调用它: f = open('pa
我有一个以 XML 形式出现的数据集,其中一个节点包含 JSON。 Spark 将其作为 StringType 读取,因此我尝试使用 from_json() 将 JSON 转换为 DataFrame。
如何使用 StructType 创建数据集? 我们可以如下创建一个Dataset: case class Person(name: String, age: Int) val personDS = S
我有一个换行符分隔的 json 文件,看起来像 {"id":1,"nested_col": {"key1": "val1", "key2": "val2", "key3": ["arr1", "arr
我正在尝试从 pandas 数据帧创建 Spark 数据帧。我正在基于由数组的结构类型和结构字段组成的模式构建模式。以下是示例架构: mySchema = ( StructType(
如果我想从case class创建一个StructType(即DataFrame.schema),有没有办法做到不创建 DataFrame 吗?我可以轻松做到: case class TestCase
我正在尝试更改从 RDBMS 数据库读取的数据框中存在的列的数据类型。为此,我通过以下方式获得了数据框的架构: val dataSchema = dataDF.schema 为了查看数据框的架构,我使
为什么它工作得很好 from pyspark.sql.types import * l=[("foo",83.33)] schema = StructType([ StructField("ty
我正在尝试更改从 RDBMS 数据库读取的数据框中存在的列的数据类型。为此,我通过以下方式获得了数据框的架构: val dataSchema = dataDF.schema 为了查看数据框的架构,我使
为什么它工作得很好 from pyspark.sql.types import * l=[("foo",83.33)] schema = StructType([ StructField("ty
我是一名优秀的程序员,十分优秀!