gpt4 book ai didi

scala - 是否可以对 Spark UDAF 进行单元测试?

转载 作者:行者123 更新时间:2023-12-05 00:51:55 24 4
gpt4 key购买 nike

Spark UDAF 要求您实现多种方法,特别是def update(buffer: MutableAggregationBuffer, input: Row): Unitdef merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit
假设我有一个 UDAF X,4 行 (r0, r1, r2, r3)和两个聚合缓冲区 A, B在我的测试中。
我想看到这段代码产生了预期的结果:

X.update(A, r0)
X.update(A, r1)
X.update(B, r2)
X.update(B, r3)
X.merge(A, B)
X.evaluate(A)

与仅使用一个缓冲区在 4 行中的每一行上调用 X.update 相同:
X.update(A, r0)
X.update(A, r1)
X.update(A, r2)
X.update(A, r3)
X.evaluate(A)

这样就测试了两种方法的正确性。
但是,我不知道如何编写这样的测试:用户代码似乎无法实例化 MutableAggregationBuffer 的任何实现。 .

如果我只是从我的 4 行中创建一个 DF,并尝试使用 groupBy().agg(...)要调用我的 UDAF,Spark 甚至不会尝试以这种特定方式合并它们 - 因为它的行数很少,所以不需要。

最佳答案

MutableAggregationBuffer只是一个抽象类。您可以轻松创建自己的实现,例如这样的实现:

import org.apache.spark.sql.expressions._

class DummyBuffer(init: Array[Any]) extends MutableAggregationBuffer {
val values: Array[Any] = init
def update(i: Int, value: Any) = values(i) = value
def get(i: Int): Any = values(i)
def length: Int = init.size
def copy() = new DummyBuffer(values)
}

它不会取代“真实的东西”,但对于简单的测试场景应该足够了。

关于scala - 是否可以对 Spark UDAF 进行单元测试?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43703207/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com