gpt4 book ai didi

hadoop - Kafka Connect HDFS 接收器与 Azure Blob 存储

转载 作者:可可西里 更新时间:2023-11-01 15:51:53 25 4
gpt4 key购买 nike

我想使用 Kafka HDFS 接收器连接器连接到 Azure Blob 存储。到目前为止我已经做了:

  1. 设置kafka-connect属性:

    hdfs.url=wasbs://<my_url>
    hadoop.conf.dir={hadoop_3_home}/etc/hadoop/
    hadoop.home={hadoop_3_home}
  2. 并且在 core-site.xml 中添加了对 wasbs 的支持:

    <property>
    <name>fs.wasbs.impl</name>
    <value>org.apache.hadoop.fs.azure.NativeAzureFileSystem</value>
    </property>
  3. 导出HADOOP_CLASSPATH变量,添加到PATH

但是无论如何,Hadoop 找不到类 - NativeAzureFileSystem:

at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
at io.confluent.connect.hdfs.storage.StorageFactory.createStorage(StorageFactory.java:29)
... 11 more
Caused by: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.azure.NativeAzureFileSystem not found
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2195)
at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:2654)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2667)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:94)

你能帮忙解决这个问题吗?有可能吗?

最佳答案

my goal is: backup everything from Kafka to Azure BLOB of any data format.

HDFS 和云连接器无法备份“任何格式”。 Confluent 的 Avro 是文件格式的一等公民。其次是 JSON,但根据我的发现,没有“纯文本”格式。我认为 HDFS 连接器确实支持“字节数组”格式。

正如我在评论中提到的,在我看来,Kafka 的备份不同于将数据无限期保留到文件系统。备份 Kafka 到 Kafka 包括使用 MirrorMaker。

如果您想使用任何格式,Spark、Flink、NiFi 或 Streamsets 可以更灵活地开箱即用

关于hadoop - Kafka Connect HDFS 接收器与 Azure Blob 存储,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48371621/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com