gpt4 book ai didi

scala - 从 Spark2 中的 spark 临时表创建表后记录丢失

转载 作者:行者123 更新时间:2023-12-04 15:51:16 24 4
gpt4 key购买 nike

我已经从下面的序列创建了一个数据框。

val df = sc.parallelize(Seq((100,23,9.50),
(100,23,9.51),
(100,24,9.52),
(100,25,9.54),
(100,23,9.55),
(101,21,8.51),
(101,23,8.52),
(101,24,8.55),
(101,20,8.56))).toDF("id", "temp","time")

我想通过在当时缺少数据的地方再添加几行来更新 DF。所以我从 mapPartitions 迭代了 DF 以添加新行。

import org.apache.spark.sql.functions._
import org.apache.spark.sql.{DataFrame, Row, Column}

@transient val w = org.apache.spark.sql.expressions.Window.partitionBy("id").orderBy("time")

val leadDf = df.withColumn("time_diff", ((lead("time", 1).over(w) - df("time")).cast("Float")*100).cast("int"))

Dataframe 迭代在这里:

val result =   leadDf.rdd.mapPartitions(itr =>
new Iterator[Row] {
var prevRow = null: Row
var prevDone = true
var firstRow = true
var outputRow: Row = null: Row
var counter = 0
var currRecord = null :Row
var currRow: Row = if (itr.hasNext) {currRecord = itr.next; currRecord } else null
prevRow = currRow
override def hasNext: Boolean = {
if (!prevDone) {
prevRow = incrementValue(prevRow,2)
outputRow = prevRow
counter = counter -1
if(counter == 0) {
prevDone = true
}
true
} else if (itr.hasNext) {
prevRow = currRow
if(counter == 0 && prevRow.getAs[Int](3) != 1 && !isNullValue(prevRow,3 )){
outputRow = prevRow
counter = prevRow.getAs[Int](3) - 1
prevDone = false
}else if(counter > 0) {
counter = counter -1
prevDone = false
}
else {
outputRow = currRow
}
//if(counter == 0){
currRow = itr.next
true
} else if (currRow != null) {
outputRow = currRow
currRow =null
true
} else {
false
}
}
override def next(): Row = outputRow
})
val newDf = spark.createDataFrame(result,leadDf.schema)

在此之后,我可以在数据框中看到 12 条记录。但是从“newDf”数据帧创建的临时表创建的物理表中获得了 10 条记录。

newDf.registerTempTable("test")
spark.sql("create table newtest as select * from test")

scala> newDf.count
res14: Long = 12

scala> spark.sql("select * from newtest").count
res15: Long = 10

相同的代码在 Spark 1.6 中运行良好,最终表计数与数据帧记录计数匹配。

有人可以解释为什么会这样吗?以及解决问题的任何解决方案或解决方法

最佳答案

我找到了一个解决方案或变通方法,它正在从 RDD[Row] 新创建的数据帧上调用修复方法。

val newDf = spark.createDataFrame(result,leadDf.schema).repartition(result.getNumPartitions)

关于scala - 从 Spark2 中的 spark 临时表创建表后记录丢失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53811281/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com