- 使用 Spring Initializr 创建 Spring Boot 应用程序
- 在Spring Boot中配置Cassandra
- 在 Spring Boot 上配置 Tomcat 连接池
- 将Camel消息路由到嵌入WildFly的Artemis上
本文整理了Java中org.apache.flink.streaming.connectors.kafka.internals.ZookeeperOffsetHandler.prepareAndCommitOffsets()
方法的一些代码示例,展示了ZookeeperOffsetHandler.prepareAndCommitOffsets()
的具体用法。这些代码示例主要来源于Github
/Stackoverflow
/Maven
等平台,是从一些精选项目中提取出来的代码,具有较强的参考意义,能在一定程度帮忙到你。ZookeeperOffsetHandler.prepareAndCommitOffsets()
方法的具体详情如下:
包路径:org.apache.flink.streaming.connectors.kafka.internals.ZookeeperOffsetHandler
类名称:ZookeeperOffsetHandler
方法名:prepareAndCommitOffsets
[英]Commits offsets for Kafka partitions to ZooKeeper. The given offsets to this method should be the offsets of the last processed records; this method will take care of incrementing the offsets by 1 before committing them so that the committed offsets to Zookeeper represent the next record to process.
[中]将Kafka分区的偏移提交给ZooKeeper。此方法的给定偏移量应该是最后处理的记录的偏移量;此方法将在提交偏移量之前将偏移量增加1,以便提交给Zookeeper的偏移量代表下一个要处理的记录。
代码示例来源:origin: apache/flink
@Override
public void run() {
try {
while (running) {
Thread.sleep(commitInterval);
// create copy a deep copy of the current offsets
HashMap<KafkaTopicPartition, Long> offsetsToCommit = new HashMap<>(partitionStates.size());
for (KafkaTopicPartitionState<?> partitionState : partitionStates) {
offsetsToCommit.put(partitionState.getKafkaTopicPartition(), partitionState.getOffset());
}
offsetHandler.prepareAndCommitOffsets(offsetsToCommit);
}
}
catch (Throwable t) {
if (running) {
errorHandler.reportError(
new Exception("The periodic offset committer encountered an error: " + t.getMessage(), t));
}
}
}
代码示例来源:origin: apache/flink
@Override
protected void doCommitInternalOffsetsToKafka(
Map<KafkaTopicPartition, Long> offsets,
@Nonnull KafkaCommitCallback commitCallback) throws Exception {
ZookeeperOffsetHandler zkHandler = this.zookeeperOffsetHandler;
if (zkHandler != null) {
try {
// the ZK handler takes care of incrementing the offsets by 1 before committing
zkHandler.prepareAndCommitOffsets(offsets);
commitCallback.onSuccess();
}
catch (Exception e) {
if (running) {
commitCallback.onException(e);
throw e;
} else {
return;
}
}
}
// Set committed offsets in topic partition state
for (KafkaTopicPartitionState<TopicAndPartition> partition : subscribedPartitionStates()) {
Long offset = offsets.get(partition.getKafkaTopicPartition());
if (offset != null) {
partition.setCommittedOffset(offset);
}
}
}
代码示例来源:origin: org.apache.flink/flink-connector-kafka-0.8_2.11
@Override
public void run() {
try {
while (running) {
Thread.sleep(commitInterval);
// create copy a deep copy of the current offsets
HashMap<KafkaTopicPartition, Long> offsetsToCommit = new HashMap<>(partitionStates.size());
for (KafkaTopicPartitionState<?> partitionState : partitionStates) {
offsetsToCommit.put(partitionState.getKafkaTopicPartition(), partitionState.getOffset());
}
offsetHandler.prepareAndCommitOffsets(offsetsToCommit);
}
}
catch (Throwable t) {
if (running) {
errorHandler.reportError(
new Exception("The periodic offset committer encountered an error: " + t.getMessage(), t));
}
}
}
代码示例来源:origin: org.apache.flink/flink-connector-kafka-0.8
@Override
public void run() {
try {
while (running) {
Thread.sleep(commitInterval);
// create copy a deep copy of the current offsets
HashMap<KafkaTopicPartition, Long> offsetsToCommit = new HashMap<>(partitionStates.size());
for (KafkaTopicPartitionState<?> partitionState : partitionStates) {
offsetsToCommit.put(partitionState.getKafkaTopicPartition(), partitionState.getOffset());
}
offsetHandler.prepareAndCommitOffsets(offsetsToCommit);
}
}
catch (Throwable t) {
if (running) {
errorHandler.reportError(
new Exception("The periodic offset committer encountered an error: " + t.getMessage(), t));
}
}
}
代码示例来源:origin: org.apache.flink/flink-connector-kafka-0.8_2.10
@Override
public void run() {
try {
while (running) {
Thread.sleep(commitInterval);
// create copy a deep copy of the current offsets
HashMap<KafkaTopicPartition, Long> offsetsToCommit = new HashMap<>(partitionStates.length);
for (KafkaTopicPartitionState<?> partitionState : partitionStates) {
offsetsToCommit.put(partitionState.getKafkaTopicPartition(), partitionState.getOffset());
}
offsetHandler.prepareAndCommitOffsets(offsetsToCommit);
}
}
catch (Throwable t) {
if (running) {
errorHandler.reportError(
new Exception("The periodic offset committer encountered an error: " + t.getMessage(), t));
}
}
}
代码示例来源:origin: org.apache.flink/flink-connector-kafka-0.8
@Override
protected void doCommitInternalOffsetsToKafka(
Map<KafkaTopicPartition, Long> offsets,
@Nonnull KafkaCommitCallback commitCallback) throws Exception {
ZookeeperOffsetHandler zkHandler = this.zookeeperOffsetHandler;
if (zkHandler != null) {
try {
// the ZK handler takes care of incrementing the offsets by 1 before committing
zkHandler.prepareAndCommitOffsets(offsets);
commitCallback.onSuccess();
}
catch (Exception e) {
if (running) {
commitCallback.onException(e);
throw e;
} else {
return;
}
}
}
// Set committed offsets in topic partition state
for (KafkaTopicPartitionState<TopicAndPartition> partition : subscribedPartitionStates()) {
Long offset = offsets.get(partition.getKafkaTopicPartition());
if (offset != null) {
partition.setCommittedOffset(offset);
}
}
}
代码示例来源:origin: org.apache.flink/flink-connector-kafka-0.8_2.10
@Override
public void commitInternalOffsetsToKafka(
Map<KafkaTopicPartition, Long> offsets,
@Nonnull KafkaCommitCallback commitCallback) throws Exception {
ZookeeperOffsetHandler zkHandler = this.zookeeperOffsetHandler;
if (zkHandler != null) {
try {
// the ZK handler takes care of incrementing the offsets by 1 before committing
zkHandler.prepareAndCommitOffsets(offsets);
commitCallback.onSuccess();
}
catch (Exception e) {
if (running) {
commitCallback.onException(e);
throw e;
} else {
return;
}
}
}
// Set committed offsets in topic partition state
KafkaTopicPartitionState<TopicAndPartition>[] partitions = subscribedPartitionStates();
for (KafkaTopicPartitionState<TopicAndPartition> partition : partitions) {
Long offset = offsets.get(partition.getKafkaTopicPartition());
if (offset != null) {
partition.setCommittedOffset(offset);
}
}
}
代码示例来源:origin: org.apache.flink/flink-connector-kafka-0.8_2.11
@Override
protected void doCommitInternalOffsetsToKafka(
Map<KafkaTopicPartition, Long> offsets,
@Nonnull KafkaCommitCallback commitCallback) throws Exception {
ZookeeperOffsetHandler zkHandler = this.zookeeperOffsetHandler;
if (zkHandler != null) {
try {
// the ZK handler takes care of incrementing the offsets by 1 before committing
zkHandler.prepareAndCommitOffsets(offsets);
commitCallback.onSuccess();
}
catch (Exception e) {
if (running) {
commitCallback.onException(e);
throw e;
} else {
return;
}
}
}
// Set committed offsets in topic partition state
for (KafkaTopicPartitionState<TopicAndPartition> partition : subscribedPartitionStates()) {
Long offset = offsets.get(partition.getKafkaTopicPartition());
if (offset != null) {
partition.setCommittedOffset(offset);
}
}
}
我尝试理解[c代码 -> 汇编]代码 void node::Check( data & _data1, vector& _data2) { -> push ebp -> mov ebp,esp ->
我需要在当前表单(代码)的上下文中运行文本文件中的代码。其中一项要求是让代码创建新控件并将其添加到当前窗体。 例如,在Form1.cs中: using System.Windows.Forms; ..
我有此 C++ 代码并将其转换为 C# (.net Framework 4) 代码。有没有人给我一些关于 malloc、free 和 sprintf 方法的提示? int monate = ee; d
我的网络服务器代码有问题 #include #include #include #include #include #include #include int
给定以下 html 代码,将列表中的第三个元素(即“美丽”一词)以斜体显示的 CSS 代码是什么?当然,我可以给这个元素一个 id 或一个 class,但 html 代码必须保持不变。谢谢
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 7 年前。
我试图制作一个宏来避免重复代码和注释。 我试过这个: #define GrowOnPage(any Page, any Component) Component.Width := Page.Surfa
我正在尝试将我的旧 C++ 代码“翻译”成头条新闻所暗示的 C# 代码。问题是我是 C# 中的新手,并不是所有的东西都像 C++ 中那样。在 C++ 中这些解决方案运行良好,但在 C# 中只是不能。我
在 Windows 10 上工作,R 语言的格式化程序似乎没有在 Visual Studio Code 中完成它的工作。我试过R support for Visual Studio Code和 R-T
我正在处理一些报告(计数),我必须获取不同参数的计数。非常简单但乏味。 一个参数的示例查询: qCountsEmployee = ( "select count(*) from %s wher
最近几天我尝试从 d00m 调试网络错误。我开始用尽想法/线索,我希望其他 SO 用户拥有可能有用的宝贵经验。我希望能够提供所有相关信息,但我个人无法控制服务器环境。 整个事情始于用户注意到我们应用程
我有一个 app.js 文件,其中包含如下 dojo amd 模式代码: require(["dojo/dom", ..], function(dom){ dom.byId('someId').i
我对“-gencode”语句中的“code=sm_X”选项有点困惑。 一个例子:NVCC 编译器选项有什么作用 -gencode arch=compute_13,code=sm_13 嵌入库中? 只有
我为我的表格使用 X-editable 框架。 但是我有一些问题。 $(document).ready(function() { $('.access').editable({
我一直在通过本教程学习 flask/python http://blog.miguelgrinberg.com/post/the-flask-mega-tutorial-part-i-hello-wo
我想将 Vim 和 EMACS 用于 CNC、G 代码和 M 代码。 Vim 或 EMACS 是否有任何语法或模式来处理这种类型的代码? 最佳答案 一些快速搜索使我找到了 this vim 和 thi
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?更新问题,使其成为 on-topic对于堆栈溢出。 7年前关闭。 Improve this
这个问题在这里已经有了答案: Enabling markdown highlighting in Vim (5 个回答) 6年前关闭。 当我在 Vim 中编辑包含 Markdown 代码的 READM
我正在 Swift3 iOS 中开发视频应用程序。基本上我必须将视频 Assets 和音频与淡入淡出效果合并为一个并将其保存到 iPhone 画廊。为此,我使用以下方法: private func d
pipeline { agent any stages { stage('Build') { steps { e
我是一名优秀的程序员,十分优秀!