- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我们有一个基于 Kafka Streams State Stores 的简单命令 ID 重复数据删除机制。它将过去一小时的命令 ID 存储在 persistentWindowStore 中。如果稍后在该拓扑中抛出异常,我们会遇到存储问题。我们使用 docker 运行 3 个节点,每个节点都为这个特定的 Streams 应用程序设置了多个线程。流程如下:
2020-04-16 07:26:19.144 DEBUG 1 --- [-StreamThread-1] c.g.f.c.s.validation.CommandIdValidator : CommandId: mnl_cmd_1cd3a7c9-56ef-4c08-a312-d9b69681726a is not a duplicate.
2020-04-16 07:26:19.144 INFO 1 --- [-StreamThread-1] c.g.f.c.s.v.CommandIdValidationUtils : Putting commandId in store: mnl_cmd_1cd3a7c9-56ef-4c08-a312-d9b69681726a 1587013200000
2020-04-16 07:26:19.153 INFO 1 --- [-StreamThread-1] g.f.l.s.v.XXXXValidationHandler :
Exception in thread "XXXXXXProcessor-53816dfa-6ebf-47ad-864c-0fbcb61dc51c-StreamThread-1" java.lang.RuntimeException: Unexpected exponent value: -5
Failed to process stream task 1_2 due to the following error
Shutting down
Unclean shutdown of all active tasks
Flushing all stores registered in the state manager
拓扑中的第一个节点分析这是否是重复的,如果不是则将其放入状态存储中。下一个拓扑节点抛出异常。结果,事务中止,不提交偏移量。我仔细检查了更新日志主题 - 相关消息未提交。
2020-04-16 07:26:43.399 DEBUG 1 --- [-StreamThread-2] c.g.f.c.s.validation.CommandIdValidator : CommandId: mnl_cmd_1cd3a7c9-56ef-4c08-a312-d9b69681726a is not a duplicate.
2020-04-16 07:26:43.400 INFO 1 --- [-StreamThread-2] c.g.f.c.s.v.CommandIdValidationUtils : Putting commandId in store: mnl_cmd_1cd3a7c9-56ef-4c08-a312-d9b69681726a 1587013200000
2020-04-16 07:26:43.425 INFO 1 --- [-StreamThread-2] g.f.l.s.v.XXXXValidationHandler :
Exception in thread "XXXXXXProcessor-d069f877-90ff-4ecf-bfbf-3b2bd0e20eac-StreamThread-2" java.lang.RuntimeException: XXXX
同样的故事,交易中止。
2020-04-16 07:26:55.655 INFO 1 --- [-StreamThread-2] c.g.f.c.s.v.CommandIdValidationUtils : next: KeyValue(1587013200000, mnl_cmd_1cd3a7c9-56ef-4c08-a312-d9b69681726a)
2020-04-16 07:26:55.655 WARN 1 --- [-StreamThread-2] c.g.f.c.s.validation.CommandIdValidator : Command duplicate detected. Command id mnl_cmd_1cd3a7c9-56ef-4c08-a312-d9b69681726a
我们分析了任务恢复日志,一切似乎都很正常,中止的交易被跳过了:从分区中跳过中止的记录批处理
但是,此任务的 rocks 数据库包含命令 id:
docker cp 134d4f6f82cf:/tmp/kafka-streams/XXXXXXProcessor/1_0/COMMAND_ID_STORE/COMMAND_ID_STORE.1587013200000 .
ldb --db=COMMAND_ID_STORE.1587013200000 scan
mnl_cmd_1cd3a7c9-56ef-4c08-a312-d9b69681726a : mnl_cmd_1cd3a7c9-56ef-4c08-a312-d9b69681726a
mnl_cmd_c51cbb71-0274-44c6-b016-976add743fe6 : mnl_cmd_c51cbb71-0274-44c6-b016-976add743fe6
我们的理解是,即使事务在节点 1 (A) 上中止,rocks db 条目之后也没有被清理,并且在 (C) 期间另一个线程从已经存在的 rocks db 中获取数据(毕竟,磁盘路径与任务连接,而不是线程)。我们不确定在任务恢复期间或任务失败期间持久存储会发生什么。根据我们的说法,这种情况破坏了 exactly-once 语义,因为状态存储与变更日志主题不同步。
这是我们这边的错误配置/错误的假设吗?错误?我们尝试将存储更改为 inMemoryWindowStore,它似乎可以解决问题。但我们想了解这种行为,因为我们严重依赖状态存储。
我们使用 Java 11、kafka 客户端 4.1 和 spring-kafka 2.4.5。回滚到kafka clients 2.3.1,问题依旧。
EDIT 我们执行了一些配置更改的更多测试,将 num.standby.replicas = 1
更改为 num.standby.replicas = 0
后问题消失了。从日志来看,似乎已正确创建备用状态,即未考虑中止的消息,但磁盘上的状态仍然被破坏,这很容易重现。再来一个分析: - 节点 A Thread-2 处理消息,崩溃 - 节点 B Thread-2 是备用副本,接管,崩溃 - 节点 B Thread-1 接管,检测到重复
编辑 2与检查点文件相关的详细日志。首先,发送一个有效命令,然后发送一个无效命令(因此,变更日志主题不为空)。
NODE_3 2020-04-15 21:06:14.470 TRACE 1 --- [-StreamThread-2] o.a.k.s.p.i.ProcessorStateManager : stream-thread [XXXXProcessor-94f7be8e-beec-411f-b4ec-9031527bccdf-StreamThread-2] task [1_2] Checkpointable offsets read from checkpoint: {}
NODE_3 2020-04-15 21:06:19.413 TRACE 1 --- [-StreamThread-2] o.a.k.s.p.i.ProcessorStateManager : stream-thread [XXXXProcessor-94f7be8e-beec-411f-b4ec-9031527bccdf-StreamThread-2] task [1_2] Restoring state store COMMAND_ID_STORE from changelog topic XXXXProcessor-COMMAND_ID_STORE-changelog at checkpoint null
NODE_3 2020-04-15 21:06:28.470 TRACE 1 --- [-StreamThread-1] o.a.k.s.p.i.ProcessorStateManager : stream-thread [XXXXProcessor-94f7be8e-beec-411f-b4ec-9031527bccdf-StreamThread-1] standby-task [1_2] Checkpointable offsets read from checkpoint: {}
NODE_3 2020-04-15 21:06:29.634 TRACE 1 --- [-StreamThread-2] o.a.k.s.s.internals.OffsetCheckpoint : Writing tmp checkpoint file /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint.tmp
NODE_3 2020-04-15 21:06:29.640 TRACE 1 --- [-StreamThread-2] o.a.k.s.s.internals.OffsetCheckpoint : Swapping tmp checkpoint file /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint.tmp /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint
NODE_3 2020-04-15 21:11:15.909 TRACE 1 --- [-StreamThread-1] o.a.k.s.s.internals.OffsetCheckpoint : Writing tmp checkpoint file /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint.tmp
NODE_3 2020-04-15 21:11:15.912 TRACE 1 --- [-StreamThread-1] o.a.k.s.s.internals.OffsetCheckpoint : Swapping tmp checkpoint file /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint.tmp /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint
NODE_1 log1:2020-04-15 21:11:33.942 DEBUG 1 --- [-StreamThread-2] c.g.f.c.s.validation.CommandIdValidator : CommandId: mnl_cmd_9f1752da-45b7-4ef7-9ef8-209d826530bc is not a duplicate.
NODE_3 2020-04-15 21:11:47.195 TRACE 1 --- [-StreamThread-1] o.a.k.s.s.internals.OffsetCheckpoint : Writing tmp checkpoint file /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint.tmp
NODE_3 2020-04-15 21:11:47.233 TRACE 1 --- [-StreamThread-1] o.a.k.s.s.internals.OffsetCheckpoint : Swapping tmp checkpoint file /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint.tmp /tmp/kafka-streams/XXXXProcessor/1_2/.checkpoint
NODE_3 2020-04-15 21:11:49.075 TRACE 1 --- [-StreamThread-2] o.a.k.s.p.i.ProcessorStateManager : stream-thread [XXXXProcessor-94f7be8e-beec-411f-b4ec-9031527bccdf-StreamThread-2] task [1_2] Restoring state store COMMAND_ID_STORE from changelog topic XXXXProcessor-COMMAND_ID_STORE-changelog at checkpoint 1
NODE_3 2020-04-15 21:11:49.436 TRACE 1 --- [-StreamThread-2] o.a.k.s.p.i.StoreChangelogReader : stream-thread [XXXXProcessor-94f7be8e-beec-411f-b4ec-9031527bccdf-StreamThread-2] Found checkpoint 1 from changelog XXXXProcessor-COMMAND_ID_STORE-changelog-2 for store COMMAND_ID_STORE.
NODE_3 2020-04-15 21:11:52.023 DEBUG 1 --- [-StreamThread-2] c.g.f.c.s.validation.CommandIdValidator : CommandId: mnl_cmd_9f1752da-45b7-4ef7-9ef8-209d826530bc is not a duplicate.
NODE_3 2020-04-15 21:11:53.683 ERROR 1 --- [-StreamThread-2] o.a.k.s.p.i.AssignedStreamsTasks : stream-thread [XXXXProcessor-94f7be8e-beec-411f-b4ec-9031527bccdf-StreamThread-2] Failed to process stream task 1_2 due to the following error: java.lang.RuntimeException
NODE_3 2020-04-15 21:12:05.346 TRACE 1 --- [-StreamThread-1] o.a.k.s.p.i.ProcessorStateManager : stream-thread [XXXXProcessor-94f7be8e-beec-411f-b4ec-9031527bccdf-StreamThread-1] task [1_2] Restoring state store COMMAND_ID_STORE from changelog topic XXXXProcessor-COMMAND_ID_STORE-changelog at checkpoint 1
NODE_3 2020-04-15 21:12:05.562 TRACE 1 --- [-StreamThread-1] o.a.k.s.p.i.StoreChangelogReader : stream-thread [XXXXProcessor-94f7be8e-beec-411f-b4ec-9031527bccdf-StreamThread-1] Found checkpoint 1 from changelog XXXXProcessor-COMMAND_ID_STORE-changelog-2 for store COMMAND_ID_STORE.
NODE_3 2020-04-15 21:12:06.424 WARN 1 --- [-StreamThread-1] c.g.f.c.s.validation.CommandIdValidator : Command duplicate detected. Command id mnl_cmd_9f1752da-45b7-4ef7-9ef8-209d826530bc
谢谢你的帮助。
在 COMMAND_ID_STORE 上运行的代码(类似于 Kafka Streams 中的示例)
添加状态存储
WindowBytesStoreSupplier storeSupplier = Stores.persistentWindowStore(storeName,
RETENTION,
WINDOW_SIZE,
true);
StoreBuilder<WindowStore<String, String>> storeBuilder = Stores
.windowStoreBuilder(storeSupplier, Serdes.String(), Serdes.String());
streamsBuilder.addStateStore(storeBuilder);
获取
public static boolean isCommandIdDuplicate(String commandId, WindowStore<String, String> commandIdStore) {
long previousHourStart = DateTimeUtils.previousHourStart();
final WindowStoreIterator<String> storeIterator = commandIdStore
.fetch(commandId, previousHourStart, DateTimeUtils.currentTimeMillis());
final boolean hasNext = storeIterator.hasNext();
log.info("hasNext: {}", hasNext);
while (storeIterator.hasNext()) {
log.info("next: {}", storeIterator.next());
}
storeIterator.close();
return hasNext;
}
放
final long windowStartTimestamp = DateTimeUtils.thisHourStart();
log.info("Putting commandId in store: {} {}", commandId, windowStartTimestamp);
commandIdStore.put(commandId, commandId, windowStartTimestamp);
转换
.transformValues(ValueTransformerSupplier<YYY,
? extends XXX>) CommandIdValidator::new,
COMMAND_ID_STORE);
变形金刚
@Slf4j
public class CommandIdValidator<T extends GeneratedMessageV3> implements
ValueTransformer<T, XXX<T>> {
WindowStore<String, String> commandIdStore;
@Override
public void init(ProcessorContext context) {
commandIdStore = (WindowStore<String, String>) context.getStateStore(COMMAND_ID_STORE);
}
@Override
public XXX<T> transform(T command) {
log.debug("Validating commandId.");
String commandId = getCommandId(command);
if (CommandIdValidationUtils.isCommandIdDuplicate(commandId, commandIdStore)) {
log.warn("Command duplicate detected. Command id " + commandId);
return new XXX(command,
XXX.duplicatedCommandId(commandId, command.getClass().getName()));
} else {
log.debug("CommandId: {} is not a duplicate.", commandId);
CommandIdValidationUtils.putCommandIdInStore(commandId, commandIdStore);
return XXX.successful(command);
}
}
@Override
public void close() {
}
}
最佳答案
您所描述的听起来确实像是 Kafka Streams 中的错误。
We rolled back to kafka clients 2.3.1 and the problem persists.
来自哪个版本? 2.4.0
? 2.4.1
和 2.5.0
最近都发布了,你能不能试试看问题是否还存在? (一些 EOS 错误已得到修复;我找不到与您描述的问题匹配的工单……所以不确定错误是否仍然存在。)
EOS 应该如何运作:
对于本地 RocksDB 实例,Kafka Streams 还会将“检查点”文件和一些元数据写入本地磁盘。如果检查点文件存在,我们就知道 RocksDB 是“干净的”,即与变更日志主题同步。如果检查点文件不存在,我们知道状态已损坏,整个 RocksDB 实例在启动时被清除,状态是从变更日志重建的。因此,检查点文件只应在干净的任务关闭(即重新平衡)期间写入,并且应在任务分配后和处理开始前删除。在处理过程中不应该有检查点文件,因此如果我们崩溃,我们知道存储已损坏并且我们从变更日志重建它。
一个可能是错误的理论如下:当第一个线程崩溃时(在实例 A 上),没有写入检查点文件,这是正确的。在第一次重新平衡之后,一个 StandbyTask 被分配给实例 A —— 这个 StandbyTask 应该清除本地状态存储(因为没有检查点文件)并且错误是这个删除不会发生(也许你可以通过验证日志;清除应该被记录下来,或者文件系统上的一些“创建文件”时间戳帮助)。当实例 B 上的第二个线程崩溃时,将触发另一个重新平衡。 StandbyTask 错误地认为它处于干净状态并写入检查点文件。当事件任务在实例 A 的另一个线程上启动时,它只会采用损坏的状态,因为(不正确的)现有检查点文件表明状态是一致的。
也许您可以尝试验证这一点,也可以打开错误报告?
关于apache-kafka - 在任务迁移后与 exactly_once 和备用副本中止事务后无效的状态存储内容,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61247789/
Task.WaitAll 方法等待所有任务,Task.WaitAny 方法等待一个任务。如何等待任意N个任务? 用例:下载搜索结果页面,每个结果都需要一个单独的任务来下载和处理。如果我使用 WaitA
我正在查看一些像这样的遗留 C# 代码: await Task.Run(() => { _logger.LogException(LogLevel.Error, mes
如何在 Linux 中运行 cron 任务? 关注此Q&A ,我有这个 cron 任务要运行 - 只是将一些信息写入 txt 文件, // /var/www/cron.php $myfile = fo
原谅我的新手问题,但我想按顺序执行三个任务并在剧本中使用两个角色: 任务 角色 任务 角色 任务 这是我到目前为止(任务,角色,任务): --- - name: Task Role Task ho
我有一个依赖于 installDist 的自定义任务 - 不仅用于执行,还依赖于 installDist 输出: project.task('run', type: JavaExec, depends
从使用 Wix 创建的 MSI 运行卸载时,我需要在尝试删除任何文件之前强行终止在后台运行的进程。主要应用程序由一个托盘图标组成,它反射(reflect)了 bg 进程监控本地 Windows 服务的
我想编写 Ant 任务来自动执行启动服务器的任务,然后使用我的应用程序的 URL 打开 Internet Explorer。 显然我必须执行 startServer先任务,然后 startApplic
使用 ASP.NET 4.5,我正在尝试使用新的 async/await 玩具。我有一个 IDataReader 实现类,它包装了一个特定于供应商的阅读器(如 SqlDatareader)。我有一个简
使用命令 gradle tasks可以得到一份所有可用任务的报告。有什么方法可以向此命令添加参数并按任务组过滤任务。 我想发出类似 gradle tasks group:Demo 的命令筛选所有任务并
除了sshexec,还有什么办法吗?任务要做到这一点?我知道您可以使用 scp 复制文件任务。但是,我需要执行其他操作,例如检查是否存在某些文件夹,然后将其删除。我想使用类似 condition 的东
假设我有字符串 - "D:\ApEx_Schema\Functions\new.sql@@\main\ONEVIEW_Integration\3" 我需要将以下内容提取到 diff 变量中 - 文档名
我需要编写一个 ant 任务来确定某个文件是否是只读的,如果是,则失败。我想避免使用自定义选择器来为我们的构建系统的性质做这件事。任何人都有任何想法如何去做?我正在使用 ant 1.8 + ant-c
这是一个相当普遍的计算机科学问题,并不特定于任何操作系统或框架。 因此,我对与在线程池上切换任务相关的开销感到有些困惑。在许多情况下,给每个作业分配自己的特定线程是没有意义的(我们不想创建太多硬件线程
我正在使用以下 Ansible playbook 一次性关闭远程 Ubuntu 主机列表: - hosts: my_hosts become: yes remote_user: my_user
如何更改 Ant 中的当前工作目录? Ant documentation没有 任务,在我看来,最好的做法是不要更改当前工作目录。 但让我们假设我们仍然想这样做——你会如何做到这一点?谢谢! 最佳答案
是否可以运行 cronjob每三天一次?或者也许每月 10 次。 最佳答案 每三天运行一次 - 或更短时间在月底运行一次。 (如果上个月有 31 天,它将连续运行 2 天。) 0 0 */3 * *
如何在 Gradle 任务中执行托管在存储库中的工具? 在我的具体情况下,我正在使用 Gradle 构建一个 Android 应用程序。我添加了一项任务,将一些 protobuf 数据从文本编码为二进
我的项目有下一个结构: Root |- A |- C (depends on A) \- B (depends on A) 对于所有子项目,我们使用自己的插件生成资源:https://githu
我设置了一个具有4个节点的Hadoop群集,其中一个充当HDFS的NameNode以及Yarn主节点。该节点也是最强大的。 现在,我分发了2个文本文件,一个在node01(名称节点)上,一个在node
在 TFS 2010 中为多个用户存储任务的最佳方式是什么?我只能为一项任务分配一个。 (例如:当我计划向所有开发人员演示时) (这是一个 Scrum Msf 敏捷项目,其中任务是用户故事的一部分)
我是一名优秀的程序员,十分优秀!