gpt4 book ai didi

java - Spark Streaming Kafka Stream 批量执行

转载 作者:塔克拉玛干 更新时间:2023-11-02 19:07:02 24 4
gpt4 key购买 nike

我是 Spark Streaming 的新手,我有一个关于它的使用的一般性问题。我目前正在实现一个从 Kafka 主题流式传输数据的应用程序。

使用应用程序只运行一次批处理是否是一种常见的场景,例如一天结束时,从主题中收集所有数据,进行一些聚合和转换等?

这意味着在使用 spark-submit 启动应用程序后,所有这些操作将分批执行,然后应用程序将关闭。还是 spark stream 构建用于连续批处理运行无休止且永久的流数据?

最佳答案

您可以使用 kafka-stream api,并固定一个窗口时间来对主题中的事件执行聚合和转换,一次仅一批。有关窗口的移动信息,请查看此 https://kafka.apache.org/21/documentation/streams/developer-guide/dsl-api.html#windowing

关于java - Spark Streaming Kafka Stream 批量执行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53527621/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com