gpt4 book ai didi

java - 如何从 Java 消费者主题中的消息中的架构注册表中检索 AVRO 架构

转载 作者:行者123 更新时间:2023-12-01 17:10:18 24 4
gpt4 key购买 nike

我们正在使用带有架构注册表的 Confluence Kafka。我们有 40 多个主题。我们的应用程序使用注册表中的模式将 avro 消息写入这些主题。

据我了解,使用注册表时,消息不包含实际架构,而是包含对注册表中架构( schema id )的引用。我正在 Java 中开发一个实用程序,它将接受主题名称或主题名称列表,并从每个主题中检索有限数量(也许 50 条)的消息。然后,该实用程序应将 avro 消息转换为 json。

我见过的所有示例仍然必须给出能够将 byte[] 转换为 json 的架构。

我希望并想知道,是否可以使用主题中的 avro 消息( schema id )中的信息动态地从注册表获取 schema,并使用它将消息转换为 json。

可以这样做吗?有人可以给我一个如何实现这一目标的例子吗?

谢谢

更新

@eik

试用 1

props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
"io.confluent.kafka.streams.serdes.avro.GenericAvroDeserializer");
final Consumer<String, GenericRecord> genericConsumer = new KafkaConsumer<>(props);
genericConsumer.subscribe(Collections.singletonList("TOPICNAME"));
while (true) {
final ConsumerRecords<String, GenericRecord> genericConsumerRecords = genericConsumer.poll(Duration.ofMillis(1000));
System.out.println("genericConsumerRecords.count() : " + genericConsumerRecords.count() + " genericConsumerRecords.isEmpty() : " + genericConsumerRecords.isEmpty());
genericConsumerRecords.forEach(genericRecord1 -> {
try {
System.out.println("convert(genericRecord1.value()) -> " + convert(genericRecord1.value()));
} catch (IOException e) {
e.printStackTrace();
}
//
});
}

这是输出 genericConsumerRecords.count() : 0 genericConsumerRecords.isEmpty() : true

注意::转换方法是下面答案中的方法

试用 2

props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
"org.apache.kafka.common.serialization.ByteArrayDeserializer");
final Consumer<String, byte[]> consumer = new KafkaConsumer<>(props);
consumer.subscribe(Collections.singletonList("TOPICNAME"));

while (true) {
final ConsumerRecords<String, byte[]> consumerRecords = consumer.poll(Duration.ofMillis(1000));
System.out.println("consumerRecords.count() : " + consumerRecords.count() + " consumerRecords.isEmpty() : " + consumerRecords.isEmpty());
consumerRecords.forEach(record1 -> {
String string = new String(record1.value(), StandardCharsets.UTF_8);
System.out.printf("offset = %d, key = %s, value = %s \n", record1.offset(), record1.key(), string);
});
}

这是输出

consumerRecords.count() : 60 consumerRecords.isEmpty() : false
offset = 0, key = e3bff195-08a7-4c58-99de-98ffe2d460e6, value = He52d6fa6-841f-430c-8bf7-bd4c7b684129 http://schemaregistryurl:8081/subjects/TOPICNAME-value/versions/1/schema Canon Message to represent CustomerPrefAVRFAST 162019-08-07T08:35:35.9950728 QA1-Test-0421-16$CustomerPrefData 1He52d6fa6-841f-430c-8bf7-bd4c7b684129 RawH862437d0-e260-45f9-ab5e-345b536d685a02020-04-21T17:48:52.601Z$CustomerPref POL_MAST02020-04-21T11:17:28.241ZHe3bff195-08a7-4c58-99de-98ffe2d460e69
False&1900-01-01T00:00:00He3bff195-08a7-4c58-99de-98ffe2d460e6He3bff195-08a7-4c58-99de-98ffe2d460e6

注意::我必须从输出中删除一些非 ASCII 字符

第二种方法确实给出了输出,但它是一个byte[],需要获取json输出。尝试过各种方法均未成功。

如何修复它?

谢谢

最佳答案

一种选择是使用 io.confluent.kafka.streams.serdes.avro.GenericAvroDeserializer获得标准 Apache Avro GenericRecord然后执行:

import java.io.ByteArrayOutputStream;
import java.io.IOException;
import java.nio.charset.StandardCharsets;
import org.apache.avro.Schema;
import org.apache.avro.generic.GenericDatumWriter;
import org.apache.avro.generic.GenericRecord;
import org.apache.avro.io.DatumWriter;
import org.apache.avro.io.Encoder;
import org.apache.avro.io.EncoderFactory;

class GenericRecord2Json {
String convert(GenericRecord record) throws IOException {
ByteArrayOutputStream outputStream = new ByteArrayOutputStream();

Schema schema = record.getSchema();
DatumWriter<GenericRecord> writer = new GenericDatumWriter<>(schema);
Encoder encoder = EncoderFactory.get().jsonEncoder(schema, outputStream, /* pretty= */ true);
writer.write(record, encoder);
encoder.flush();

return outputStream.toString(StandardCharsets.UTF_8);
}
}

这会以 JSON 格式返回您的消息。架构由 record.getSchema() 检索.

关于java - 如何从 Java 消费者主题中的消息中的架构注册表中检索 AVRO 架构,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61433901/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com