gpt4 book ai didi

java - Kafka JDBC 连接器中的自定义分区分配

转载 作者:塔克拉玛干 更新时间:2023-11-02 19:06:02 25 4
gpt4 key购买 nike

我有一个用例,我需要编写自定义逻辑以根据消息中的某些关键参数分配分区。我对此做了一些研究,发现 kafka 转换支持覆盖 Transformation 接口(interface)中的一些方法,但我无法在 git hub 或其他地方做一些示例代码。有人可以分享示例代码或 git hub 链接以在 kafka JDBC 源连接器中执行自定义分区分配吗?

提前致谢!

最佳答案

Kafka Connect 默认使用分配分区:DefaultPartitioner (org.apache.kafka.clients.producer.internals.DefaultPartitioner)

如果您需要用一些自定义覆盖默认连接器,这是可能的,但您必须记住,覆盖适用于所有源连接器。为此,您必须设置 producer.partitioner.class 属性,例如 producer.partitioner.class=com.example.CustomPartitioner。此外,您必须使用分区程序将 jar 复制到包含 Kafka Connect 库的目录。

转化方式:

在 Transformation 中也可以设置分区,但这不是正确的做法。在 Transformation 中,您无权访问主题元数据,这对于分配分区至关重要。

如果无论如何你想为你的记录设置分区,代码应该是这样的:

public class AddPartition <R extends ConnectRecord<R>> implements Transformation<R> {

public static final ConfigDef CONFIG_DEF = new ConfigDef();

@Override
public void configure(Map<String, ?> props) {
final SimpleConfig config = new SimpleConfig(CONFIG_DEF, props);
}

@Override
public R apply(R record) {
return record.newRecord(record.topic(), calculatePartition(record), record.keySchema(), record.key(), record.valueSchema(), record.value(), record.timestamp());
}

private Integer calculatePartition(R record) {
// Partitions calcuation based on record information
return 0;
}

@Override
public void close() {
}

@Override
public ConfigDef config() {
return CONFIG_DEF;
}
}

关于java - Kafka JDBC 连接器中的自定义分区分配,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55188508/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com