gpt4 book ai didi

scala - Spark rdd 写入 Hbase

转载 作者:行者123 更新时间:2023-12-02 07:26:55 28 4
gpt4 key购买 nike

我可以使用以下代码读取来自 Kafka 的消息:

val ssc = new StreamingContext(sc, Seconds(50)) 
val topicmap = Map("test" -> 1)
val lines = KafkaUtils.createStream(ssc,"127.0.0.1:2181", "test-consumer-group",topicmap)

但是,我正在尝试从 Kafka 读取每条消息并将其放入 HBase。这是我写入 HBase 的代码,但没有成功。

lines.foreachRDD(rdd => {
rdd.foreach(record => {
val i = +1
val hConf = new HBaseConfiguration()
val hTable = new HTable(hConf, "test")
val thePut = new Put(Bytes.toBytes(i))
thePut.add(Bytes.toBytes("cf"), Bytes.toBytes("a"), Bytes.toBytes(record))
})
})

最佳答案

好吧,您实际上并没有执行 Put,您只是在创建 Put 请求并向其中添加数据。你缺少的是一个

hTable.put(thePut);

关于scala - Spark rdd 写入 Hbase,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27246386/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com