gpt4 book ai didi

scala - apache flink : how to interpret DataStream. 打印输出?

转载 作者:行者123 更新时间:2023-12-02 21:10:07 29 4
gpt4 key购买 nike

我是 Flink 的新手,试图了解如何最有效地使用它。

我正在尝试使用 Window API,从 CSV 文件中读取。读取的行被转换为案例类,因此

case class IncomingDataUnit (
sensorUUID: String, radiationLevel: Int,photoSensor: Float,
humidity: Float,timeStamp: Long, ambientTemperature: Float)
extends Serializable {

}

并且,这就是我读取行的方式:

env.readTextFile(inputPath).map(datum => {
val fields = datum.split(",")
IncomingDataUnit(
fields(0), // sensorUUID
fields(1).toInt, // radiationLevel
fields(2).toFloat, // photoSensor
fields(3).toFloat, // humidity
fields(4).toLong, // timeStamp
fields(5).toFloat // ambientTemperature
)
})

后来,使用一个简单的窗口,我尝试打印最大环境温度,因此:

env.setStreamTimeCharacteristic(TimeCharacteristic.ProcessingTime)

val readings =
readIncomingReadings(env,"./sampleIOTTiny.csv")
.map(e => (e.sensorUUID,e.ambientTemperature))
.timeWindowAll(Time.of(5,TimeUnit.MILLISECONDS))
.trigger(CountTrigger.of(5))
.evictor(CountEvictor.of(4))
.max(1)

readings.print

输出包含这些(来自一堆 DEBUG 日志语句):

1> (probe-987f2cb6,29.43)
1> (probe-987f2cb6,29.43)
3> (probe-dccefede,30.02)
3> (probe-42a9ddca,22.07)
2> (probe-df2d4cad,22.87)
2> (probe-20c609fb,27.62)
4> (probe-dccefede,30.02)

我想了解的是人们如何解释这一点? 重复1>代表什么?

同样让我困惑的是,probe-987f2cb6 与我的数据集中的环境温度 29.43 不对应。它对应于不同的值(准确地说是 14.72)。

仅供引用,这是数据集:

probe-f076c2b0,201,842.53,75.5372,1448028160,29.37
probe-dccefede,199,749.25,78.6057,1448028160,27.46
probe-f29f9662,199,821.81,81.7831,1448028160,22.35
probe-5dac1d9f,195,870.71,83.1028,1448028160,15.98
probe-6c75cfbe,198,830.06,82.5607,1448028160,30.02
probe-4d78b545,204,778.42,78.412,1448028160,25.92
probe-400c5cdf,204,711.65,73.585,1448028160,22.18
probe-df2d4cad,199,820.8,72.936,1448028161,16.18
probe-f4ef109e,199,785.68,77.5647,1448028161,16.36
probe-3fac3350,200,720.12,78.2073,1448028161,19.19
probe-42a9ddca,193,819.12,74.3712,1448028161,22.07
probe-252a5bbd,197,710.32,80.6072,1448028161,14.64
probe-987f2cb6,200,750.4,76.0533,1448028161,14.72
probe-24444323,197,816.06,84.0816,1448028161,4.405
probe-6dd6fdc4,201,717.64,78.4031,1448028161,29.43
probe-20c609fb,204,804.37,84.5243,1448028161,22.87
probe-c027fdc9,195,858.61,81.7682,1448028161,24.47
probe-2c6cd3de,198,826.96,85.26,1448028162,18.99
probe-960906ca,197,797.63,77.4359,1448028162,27.62

我可能遗漏了很多东西。请刺激我。

忘记提及:我正在使用Flink 0.10.0。

最佳答案

“>X”代表打印结果元组的并行任务的任务 ID。我只是想知道为什么输出显示值 1 到 4——因为您使用的是非并行窗口(数据流不是通过 .keyBy() 分区的)我希望打印是链接的并且是非平行的。但也许不是,4 个并行打印任务正在运行。

关于你的结果:如果窗口触发,则在所有元组上计算字段 1 的最大值,并且窗口的 head 元组的值用于字段 0。如果您想返回完整的结果包含最大值的元组,您可以使用 maxBy() 而不是 max()

关于scala - apache flink : how to interpret DataStream. 打印输出?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33950028/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com