gpt4 book ai didi

apache-spark - 如何从属性文件设置 Kafka 参数?

转载 作者:行者123 更新时间:2023-12-04 04:02:48 26 4
gpt4 key购买 nike

我目前正在做的事情如下:

val topic = "mytopic"
val zkhosts = "localhost"
val zkports = "2181"

在我的代码中设置它然后将它发送到 kafkastream 函数可以工作,但我想从 .properties 读取它文件。有没有可能的解决方案?

最佳答案

鉴于此属性文件位于 /tmp/sample.properties

kafka.topic = "mytopic"
kafka.zkhost = "localhost"
kafka.zkports = 2191

我们可以使用普通的 java Property用于加载属性的 API:
import java.io.FileReader
val configFile = new java.io.File("/tmp/sample.properties")
val reader = new FileReader(configFile)
val props = new Properties()
props.load(reader)
reader.close()

您还可以使用您最喜欢的配置库来加载属性文件,就像在任何其他程序上一样。

例如,您可以使用流行的 typesafe config lib . Scala 有很多包装器,但在其原始形式中,您可以执行以下操作:
import com.typesafe.config.ConfigFactory
val configFile = new java.io.File("/tmp/sample.properties")
val kafkaConfig = ConfigFactory.parseFile(configFile)

import java.util.Properties
val kafkaProperties = new Properties()
kafkaProperties.put("zookeeper.hosts", kafkaConfig.getString("kafka.zkhost"))
kafkaProperties.put("zookeeper.port", kafkaConfig.getInt("kafka.zkports"):java.lang.Integer)
kafkaProperties.put("kafka.topic", kafkaConfig.getString("kafka.topic"))

(有很多方法可以使之美观和紧凑。这里我使用的是最常见的形式)

关于apache-spark - 如何从属性文件设置 Kafka 参数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44411067/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com