gpt4 book ai didi

apache-flink - 在 Flink 中,stream windowing 好像不行?

转载 作者:行者123 更新时间:2023-12-04 04:57:52 26 4
gpt4 key购买 nike

我试图增强显示流用法的 Flink 示例。我的目标是使用窗口功能(参见 window 函数调用)。我假设下面的代码输出流的最后 3 个数字的总和。(由于 ubuntu 上的 nc -lk 9999 打开了流)实际上,输出汇总了所有输入的数字。切换到时间窗口会产生相同的结果,即不产生窗口。

这是一个错误吗? (使用的版本:github上最新的master)

object SocketTextStreamWordCount {
def main(args: Array[String]) {
val hostName = args(0)
val port = args(1).toInt
val env = StreamExecutionEnvironment.getExecutionEnvironment
// Create streams for names and ages by mapping the inputs to the corresponding objects
val text = env.socketTextStream(hostName, port)
val currentMap = text.flatMap { (x:String) => x.toLowerCase.split("\\W+") }
.filter { (x:String) => x.nonEmpty }
.window(Count.of(3)).every(Time.of(1, TimeUnit.SECONDS))
// .window(Time.of(5, TimeUnit.SECONDS)).every(Time.of(1, TimeUnit.SECONDS))
.map { (x:String) => ("not used; just to have a tuple for the sum", x.toInt) }

val numberOfItems = currentMap.count
numberOfItems print
val counts = currentMap.sum( 1 )
counts print

env.execute("Scala SocketTextStreamWordCount Example")
}
}

最佳答案

问题似乎是存在从 WindowedDataStreamDataStream 的隐式转换。此隐式转换调用 WindowedDataStream 上的 flatten()

在您的情况下,代码会扩展为:

val currentMap = text.flatMap { (x:String) => x.toLowerCase.split("\\W+") }
.filter { (x:String) => x.nonEmpty }
.window(Count.of(3)).every(Time.of(1, TimeUnit.SECONDS))
.flatten()
.map { (x:String) => ("not used; just to have a tuple for the sum",x.toInt) }

flatten() 的作用类似于集合上的 flatMap()。它采用可以看作集合集合 ([[a,b,c], [d,e,f]]) 的窗口流,并将其转换为元素流: [a,b,c,d,e,f]

这意味着您的计数实际上仅对已加窗和“去窗”的原始流进行操作。这看起来好像根本没有窗口化过。

这是个问题,我会立即着手解决。 (我是 Flink 提交者之一。)您可以在此处跟踪进度:https://issues.apache.org/jira/browse/FLINK-2096

使用当前 API 的方法是这样的:

val currentMap = text.flatMap { (x:String) => x.toLowerCase.split("\\W+") }
.filter { (x:String) => x.nonEmpty }
.map { (x:String) => ("not used; just to have a tuple for the sum",x.toInt) }
.window(Count.of(3)).every(Time.of(1, TimeUnit.SECONDS))

WindowedDataStream 有一个 sum() 方法,因此不会隐式插入 flatten() 调用。不幸的是,count()WindowedDataStream 上不可用,因此为此您必须手动将 1 字段添加到元组并计算这些。

关于apache-flink - 在 Flink 中,stream windowing 好像不行?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30461809/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com