- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个带有startTime的设备ID数据和一些特征向量,需要根据hour
或weekday_hour
进行合并。样本数据如下:
+-----+-------------------+--------------------+
|hh_id| startTime| hash|
+-----+-------------------+--------------------+
|dev01|2016-10-10 00:01:04|(1048576,[121964,...|
|dev02|2016-10-10 00:17:45|(1048576,[121964,...|
|dev01|2016-10-10 00:18:01|(1048576,[121964,...|
|dev10|2016-10-10 00:19:48|(1048576,[121964,...|
|dev05|2016-10-10 00:20:00|(1048576,[121964,...|
|dev08|2016-10-10 00:45:13|(1048576,[121964,...|
|dev05|2016-10-10 00:56:25|(1048576,[121964,...|
这些功能基本上都是 SparseVector,它们是通过自定义函数合并的。当我尝试通过以下方式创建 key 列时:
val columnMap = Map("hour" -> hour($"startTime"), "weekday_hour" -> getWeekdayHourUDF($"startTime"))
val grouping = "hour"
val newDF = oldDF.withColumn("dt_key", columnMap(grouping))
我收到一个java.io.NotSerializedException
。完整的堆栈跟踪如下:
Caused by: java.io.NotSerializableException: org.apache.spark.sql.Column
Serialization stack:
- object not serializable (class: org.apache.spark.sql.Column, value: hour(startTime))
- field (class: scala.collection.immutable.Map$Map3, name: value1, type: class java.lang.Object)
- object (class scala.collection.immutable.Map$Map3, Map(hour -> hour(startTime), weekday_hour -> UDF(startTime), none -> 0))
- field (class: linef03f4aaf3a1c4f109fce271f7b5b1e30104.$read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw, name: groupingColumnMap, type: interface scala.collection.immutable.Map)
- object (class linef03f4aaf3a1c4f109fce271f7b5b1e30104.$read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw, linef03f4aaf3a1c4f109fce271f7b5b1e30104.$read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw@4f1f9a63)
- field (class: linef03f4aaf3a1c4f109fce271f7b5b1e30104.$read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw, name: $iw, type: class linef03f4aaf3a1c4f109fce271f7b5b1e30104.$read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw)
- object (class linef03f4aaf3a1c4f109fce271f7b5b1e30104.$read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw, linef03f4aaf3a1c4f109fce271f7b5b1e30104.$read$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw$$iw@207d6d1e)
但是,当我尝试使用 if-else 执行相同的逻辑而不显式创建列时,我不会遇到任何此类错误。
val newDF = if(groupingKey == "hour") {
oldDF.withColumn("dt_key", hour($"startTime")
} else {
oldDF.withColumn("dt_key", getWeekdayHourUDF($"startTime")
}
使用Map方式确实很方便,因为可能有更多类型的 key 提取方法。请帮我找出导致此问题的原因。
最佳答案
也许有点晚了,但我使用的是 Spark 2.4.6,无法重现该问题。我猜测代码会调用 columnMap
来获取多个键。如果您提供一个易于重现的示例,包括数据(1 行数据集就足够了),这会有所帮助。但是,正如堆栈跟踪所示,Column
类确实不是 Serialized
,我将尝试根据我目前的理解进行详细说明。
TLDR;避免这种情况的一种简单方法是将 val
转换为 def
。
我相信,为什么用 when
案例或 UDF 表达同样的事情是有效的,这一点已经很清楚了。
第一次尝试:类似的东西可能不起作用的原因是(a)Column
类不可序列化(我认为这是一个有意识的设计选择鉴于其在 Spark API 中的预期角色),并且 (b) 表达式中没有任何内容
oldDF.withColumn("dt_key", columnMap(grouping))
它告诉 Spark withColumn
的第二个参数的实际具体 Column
是什么,这意味着具体的 Map[String, Column]
当引发此类异常时,需要通过网络将 code> 对象发送给执行器。
第二次尝试:第二次尝试之所以有效,是因为定义 DataFrame
所需的 groupingKey
参数可能会发生相同的决定完全取决于驱动程序。
考虑使用 DataFrame
API 作为查询构建器的 Spark 代码,或者保存执行计划的东西,而不是数据本身,会有所帮助。一旦您对其调用操作(write
、show
、count
等),Spark 就会生成将任务发送到执行器的代码。此时,实现 DataFrame
/Dataset
所需的所有信息必须已在查询计划中正确编码,或者需要可序列化,以便可以通过网络。
def
通常可以解决此类问题,因为
def columnMap: Map[String, Column] = Map("a" -> hour($"startTime"), "weekday_hour" -> UDF($"startTime"))
不是具体的Map
对象本身,而是每次调用时创建一个新的Map[String, Column]
在每个执行器恰好执行涉及此Map
的任务时。
This和 this似乎是关于该主题的好资源。我承认我明白为什么使用像
这样的Function
val columnMap = () => Map("a" -> hour($"startTime"), "b" -> UDF($"startTime"))
然后 columnMap()("a")
就可以工作了,因为反编译的字节代码显示 scala.Function
被定义为 Serialized
,但我不明白为什么 def
有效,因为对于他们来说情况似乎并非如此。无论如何,我希望这会有所帮助。
关于scala - 使用 UDF 映射有条件地创建新列时出现 java.io.NotSerializedException : org. apache.spark.sql.Column,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49292921/
我正在 csv 上使用 hadoop 来分析一些数据。我使用sql/mysql(不确定)来分析数据,现在陷入了僵局。 我花了好几个小时在谷歌上搜索,却没有找到任何相关的东西。我需要一个查询,在该查询中
我正在为 Bootstrap 网格布局的“简单”任务而苦苦挣扎。我希望在大视口(viewport)上有 4 列,然后在中型设备上有 2 列,最后在较小的设备上只有 1 列。 当我测试我的代码片段时,似
对于这个令人困惑的标题,我深表歉意,我想不出这个问题的正确措辞。相反,我只会给你背景信息和目标: 这是在一个表中,一个人可能有也可能没有多行数据,这些行可能包含相同的 activity_id 值,也可
具有 3 列的数据库表 - A int , B int , C int 我的问题是: 如何使用 Sequelize 结果找到 A > B + C const countTasks = await Ta
我在通过以下功能编写此查询时遇到问题: 首先按第 2 列 DESC 排序,然后从“不同的第 1 列”中选择 只有 Column1 是 DISTINCT 此查询没有帮助,因为它首先从第 1 列中进行选择
使用 Bootstrap 非常有趣和有帮助,目前我在创建以下需求时遇到问题。 “使用 bootstrap 在桌面上有 4 列,在平板电脑上有 2 列,在移动设备上有 1 列”谁能告诉我正确的结构 最佳
我是 R 新手,正在问一个非常基本的问题。当然,我在尝试从所提供的示例中获取指导的同时做了功课here和 here ,但无法在我的案例中实现这个想法,即可能是由于我的问题中的比较维度更大。 我的实
通常我会使用 R 并执行 merge.by,但这个文件似乎太大了,部门中的任何一台计算机都无法处理它! (任何从事遗传学工作的人的附加信息)本质上,插补似乎删除了 snp ID 的 rs 数字,我只剩
我有一个 df , delta1 delta2 0 -1 2 0 -1 0 0 0 我想知道如何分配 delt
您好,我想知道是否可以执行以下操作。显然,我已经尝试在 phpMyAdmin 中运行它,但出现错误。也许还有另一种方式来编写此查询。 SELECT * FROM eat_eat_restaurants
我有 2 个列表(标题和数据值)。我想要将数据值列 1 匹配并替换为头文件列 1,以获得与 dataValue 列 1 和标题值列 2 匹配的值 头文件 TotalLoad,M0001001 Hois
我有两个不同长度的文件,file2 是一个很大的引用文件,我从中提取文件 1 的数据。 我有一行 awk,我通常会对其进行调整以在我的文件中进行查找和替换,但它总是在同一列中进行查找和替换。 所以对于
假设我有两个表,如下所示。 create table contract( c_ID number(1) primary key, c_name varchar2(50) not
我有一个带有 varchar 列的 H2 表,其检查约束定义如下: CONSTRAINT my_constraint CHECK (varchar_field <> '') 以下插入语句失败,但当我删
这是最少量的代码,可以清楚地说明我的问题: One Two Three 前 2 个 div 应该是 2 个左列。第三个应该占据页面的其余部分。最后,我将添加选项来隐藏和
在 Azure 中的 Log Analytics 中,我为 VM Heartbeat 选择一个预定义查询,我在编辑器中运行查询正常,但当我去创建警报时,我不断收到警报“查询未返回 TimeGenera
在 Azure 中的 Log Analytics 中,我为 VM Heartbeat 选择一个预定义查询,我在编辑器中运行查询正常,但当我去创建警报时,我不断收到警报“查询未返回 TimeGenera
今天我开始使用 JexcelApi 并遇到了这个:当您尝试从特定位置获取元素时,不是像您通常期望的那样使用sheet.getCell(row,col),而是使用sheet.getCell(col,ro
我有一个包含 28 列的数据库。第一列是代码,第二列是名称,其余是值。 public void displayData() { con.Open(); MySqlDataAdapter
我很沮丧:每当我缩小这个网页时,一切都变得一团糟。我如何将网页居中,以便我可以缩小并且元素不会被错误定位。 (它应该是 2 列,但所有内容都合并为 1)我试过 但由于某种原因,这不起作用。 www.o
我是一名优秀的程序员,十分优秀!