- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
环境(Docker):
# 5.5.1
image: confluentinc/cp-zookeeper:latest
# 2.13-2.6.0
image: wurstmeister/kafka:latest
# 5.5.1
image: confluentinc/cp-schema-registry:latest
# 5.5.1
image: confluentinc/cp-kafka-connect:latest
# 0.11.0
image: confluentinc/ksqldb-server:latest
Kafka 主题内容来自 kafka connect(使用 debezium)。
select * from user emit changes
)时,
ksqldb-server | [2020-08-29 12:44:23,008] ERROR {"type":0,"deserializationError":{"errorMessage":"Error deserializing DELIMITED message from topic: pa.new_pa.user","recordB64":null,"cause":["Size of data received by LongDeserializer is not 8"],"topic":"pa.new_pa.user"},"recordProcessingError":null,"productionError":null} (processing.CTAS_USER2_0.KsqlTopic.Source.deserializer:44)
ksqldb-server | [2020-08-29 12:44:23,008] WARN Exception caught during Deserialization, taskId: 0_0, topic: pa.new_pa.user, partition: 0, offset: 23095 (org.apache.kafka.streams.processor.internals.StreamThread:36)
ksqldb-server | org.apache.kafka.common.errors.SerializationException: Error deserializing DELIMITED message from topic: pa.new_pa.user
ksqldb-server | Caused by: org.apache.kafka.common.errors.SerializationException: Size of data received by LongDeserializer is not 8
ksqldb-server | [2020-08-29 12:44:23,009] WARN stream-thread [_confluent-ksql-default_query_CTAS_USER2_0-6637e2a8-c417-49fa-bb65-d0d1a5205af1-StreamThread-1] task [0_0] Skipping record due to deserialization error. topic=[pa.new_pa.user] partition=[0] offset=[23095] (org.apache.kafka.streams.processor.internals.RecordDeserializer:88)
ksqldb-server | org.apache.kafka.common.errors.SerializationException: Error deserializing DELIMITED message from topic: pa.new_pa.user
ksqldb-server | Caused by: org.apache.kafka.common.errors.SerializationException: Size of data received by LongDeserializer is not 8
我尝试使用偏移量为“23095”的消息,看起来不错。
[2020-08-29 13:24:12,021] INFO [Consumer clientId=consumer-console-consumer-37294-1, groupId=console-consumer-37294] Subscribed to partition(s): pa.new_pa.user-0 (org.apache.kafka.clients.consumer.KafkaConsumer)
[2020-08-29 13:24:12,026] INFO [Consumer clientId=consumer-console-consumer-37294-1, groupId=console-consumer-37294] Seeking to offset 23095 for partition pa.new_pa.user-0 (org.apache.kafka.clients.consumer.KafkaConsumer)
[2020-08-29 13:24:12,570] INFO [Consumer clientId=consumer-console-consumer-37294-1, groupId=console-consumer-37294] Cluster ID: rdsgvpoESzer6IAxQDlLUA (org.apache.kafka.clients.Metadata)
{"id":8191,"parent_id":{"long":8184},"upper_id":0,"username":"app0623c","domain":43,"role":1,"modified_at":1598733553000,"blacklist_modified_at":{"long":1598733768000},"tied_at":{"long":1598733771000},"name":"test","enable":1,"is_default":0,"bankrupt":0,"locked":0,"tied":0,"checked":0,"failed":0,"last_login":{"long":1598733526000},"last_online":{"long":1598733532000},"last_ip":{"bytes":"ÿÿ\u0000\u0000\u0000\u0000\u0000\u0000\u0000\u0000\u0000\u0000\u0000\u0000\u0000\u0000"},"last_country":{"string":"MY"},"last_city_id":0}
这是我的源连接器配置,其他:
CREATE SOURCE CONNECTOR `pa_source_unwrap` WITH(
"connector.class" = 'io.debezium.connector.mysql.MySqlConnector',
"tasks.max" = '1',
"database.hostname" = 'docker.for.mac.host.internal',
"database.port" = '3306',
"database.user" = 'root',
"database.password" = 'xxxxxxx',
"database.service.id" = '10001',
"database.server.name" = 'pa',
"database.whitelist" = 'new_pa',
"table.whitelist" = 'new_pa.user, new_pa.user_created, new_pa.cash',
"database.history.kafka.bootstrap.servers" = 'kafka:9092',
"database.history.kafka.topic" = 'schema-changes.pa',
"transforms" = 'unwrap',
"transforms.unwrap.type" = 'io.debezium.transforms.ExtractNewRecordState',
"transforms.unwrap.delete.handling.mode" = 'drop',
"transforms.unwrap.drop.tombstones" = 'true',
"key.converter" = 'io.confluent.connect.avro.AvroConverter',
"value.converter" = 'io.confluent.connect.avro.AvroConverter',
"key.converter.schema.registry.url" = 'http://schema-registry:8081',
"value.converter.schema.registry.url" = 'http://schema-registry:8081',
"key.converter.schemas.enable" = 'true',
"value.converter.schemas.enable" = 'true'
);
CREATE TABLE user (`id` BIGINT PRIMARY KEY) WITH (
KAFKA_TOPIC = 'pa.new_pa.user',
VALUE_FORMAT = 'AVRO'
);
主题架构(自动生成):
Key:
{
"connect.name": "pa.new_pa.user.Key",
"fields": [
{
"name": "id",
"type": "long"
}
],
"name": "Key",
"namespace": "pa.new_pa.user",
"type": "record"
}
Value:
{
"connect.name": "pa.new_pa.user.Value",
"fields": [
{
"name": "id",
"type": "long"
},
{
"default": null,
"name": "parent_id",
"type": [
"null",
"long"
]
},
{
"default": 0,
"name": "upper_id",
"type": {
"connect.default": 0,
"type": "long"
}
},
{
"name": "username",
"type": "string"
},
{
"name": "domain",
"type": "int"
},
{
"name": "role",
"type": {
"connect.type": "int16",
"type": "int"
}
},
{
"name": "modified_at",
"type": {
"connect.name": "io.debezium.time.Timestamp",
"connect.version": 1,
"type": "long"
}
},
{
"default": null,
"name": "blacklist_modified_at",
"type": [
"null",
{
"connect.name": "io.debezium.time.Timestamp",
"connect.version": 1,
"type": "long"
}
]
},
{
"default": null,
"name": "tied_at",
"type": [
"null",
{
"connect.name": "io.debezium.time.Timestamp",
"connect.version": 1,
"type": "long"
}
]
},
{
"name": "name",
"type": "string"
},
{
"name": "enable",
"type": {
"connect.type": "int16",
"type": "int"
}
},
{
"name": "is_default",
"type": {
"connect.type": "int16",
"type": "int"
}
},
{
"name": "bankrupt",
"type": {
"connect.type": "int16",
"type": "int"
}
},
{
"name": "locked",
"type": {
"connect.type": "int16",
"type": "int"
}
},
{
"name": "tied",
"type": {
"connect.type": "int16",
"type": "int"
}
},
{
"name": "checked",
"type": {
"connect.type": "int16",
"type": "int"
}
},
{
"name": "failed",
"type": {
"connect.type": "int16",
"type": "int"
}
},
{
"default": null,
"name": "last_login",
"type": [
"null",
{
"connect.name": "io.debezium.time.Timestamp",
"connect.version": 1,
"type": "long"
}
]
},
{
"default": null,
"name": "last_online",
"type": [
"null",
{
"connect.name": "io.debezium.time.Timestamp",
"connect.version": 1,
"type": "long"
}
]
},
{
"default": null,
"name": "last_ip",
"type": [
"null",
"bytes"
]
},
{
"default": null,
"name": "last_country",
"type": [
"null",
"string"
]
},
{
"name": "last_city_id",
"type": "long"
}
],
"name": "Value",
"namespace": "pa.new_pa.user",
"type": "record"
}
最佳答案
这里的问题是您的 key 在 Avro 中,而 ksqlDB 目前仅支持 KAFKA 格式的 key (从 0.12 版开始)。
Avro key 正在积极处理中:#4461添加了对 Avro 原语和 #4997 的支持扩展它以支持 Avro 记录中的单个键列,(如您所见)。
您正在使用配置设置 Avro key 格式:
"key.converter" = 'io.confluent.connect.avro.AvroConverter',
你是 SQL:
CREATE TABLE user (`id` BIGINT PRIMARY KEY) WITH (
KAFKA_TOPIC = 'pa.new_pa.user',
VALUE_FORMAT = 'AVRO'
);
正在设置
VALUE_FORMAT
至
AVRO
,但目前 key 格式为
KAFKA
.因此,您可以使用:
"key.converter" = 'org.apache.kafka.connect.converters.IntegerConverter',
...将 key 转换为正确的格式。有关用于 KAFKA 格式的正确转换器的更多信息,请访问
ksqlDB microsite .
关于apache-kafka - 从主题创建表并得到一些关于 LongDeserializer 接收的数据大小不是 8 的序列化异常,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63647569/
我正在阅读 Python 文档以真正深入了解 Python 语言,并遇到了 filter 和 map 函数。我以前使用过过滤器,但从未使用过映射,尽管我在 SO 上的各种 Python 问题中都见过这
当我尝试打印 BST 的级别顺序时,这个问题提示了我。 这是一个 Pre-Order Sequence: 4, 1, 2, 3, 5, 6, 7, 8 In_order Sequence : 1, 2
我的代码在 main(序列测试;)的第一行出现错误,指出它是对 sequence::sequence() 的 undefined reference 。我无法更改 main 中的代码。有谁知道我该如何
这可能很简单,但我在通常的 latex 指南中找不到任何相关内容。在这句话中: {\em hello\/} “\/”的目的是什么? 最佳答案 这就是所谓的斜体校正。其目的是确保斜体文本后有适当的间距。
当我从 Postgresql 表中删除所有记录,然后尝试重置序列以在插入时开始一个编号为 1 的新记录时,我得到不同的结果: SELECT setval('tblname_id_seq', (SELE
在版本10.0.3中,MariaDB引入了一种称为序列的存储引擎。 其ad hoc为操作生成整数序列,然后终止。 该序列包含正整数,以降序或升序排列,并使用起始,结束和递增值。 它不允许在多个查询中
如何在 Groovy 中获取给定数字的序列,例如: def number = 169 // need a method in groovy to find the consecutive number
基本上,如果这是 .NET,它看起来像这样: ISomething { string A { get; } int B { get; } } var somethings = new List
说以下代码部分(同一块): A <= 1 A <= 2 变量 A 总是被赋值为 2 吗?还是会出现竞争条件并分配 1 或 2? 我对非阻塞赋值的理解是,由硬件在 future 分配变量 A,因此它可能
在运行 WiX 设置时,我正在寻找操作列表及其顺序。不知何故,官方网站似乎没有提供任何信息。 基本问题是我想正确安排我的自定义操作。通常我需要使用 regsvr32.exe 注册一个 DLL,而这只能
F#初学者在这里 我想创建一个类型,它是具有至少一个元素的另一种具体类型(事件)的序列。任何其他元素都可以在以后随时添加。通常在 C# 中,我会创建一个具有私有(private) List 和公共(p
作为构建过程和不断发展的数据库的一部分,我试图创建一个脚本,该脚本将删除用户的所有表和序列。我不想重新创建用户,因为这将需要比所允许的更多的权限。 我的脚本创建了一个过程来删除表/序列,执行该过程,然
我想恢复两个向量的第一个日期和相同向量的第二个日期之间的日期序列,.... 这是一个例子: dates1 = as.Date(c('2015-10-01', '2015-03-27', '2015-0
这个问题已经有答案了: sql ORDER BY multiple values in specific order? (12 个回答) 已关闭 9 年前。 我有一个 sql 语句,我想要ORDER
我想恢复两个向量的第一个日期和相同向量的第二个日期之间的日期序列,.... 这是一个例子: dates1 = as.Date(c('2015-10-01', '2015-03-27', '2015-0
在用java编写代码时,我需要用“],[”分割字符串。下面是我的代码。 try (BufferedReader reader = new BufferedReader(new InputStreamR
这个问题已经有答案了: Project Euler Question 14 (Collatz Problem) (8 个回答) 已关闭 9 年前。 我正在尝试查找数字的 Collatz 序列。以下
我有一个例程函数process_letter_location(const char& c, string &word)。 在我的 main 中,我声明了一系列字符串变量,如下所示: string s
我需要找到最长的多米诺骨牌链,给定一组 12 个随机挑选的多米诺骨牌。我已经递归地生成了多米诺骨牌的所有可能性(使用 0 到 12 的面值有 91 种可能性)。多米诺骨牌由一 block “砖 blo
我有这个数据结构 Seq,它继承了类 vector 但有一些额外的功能。使用这个数据结构 Seq 我有这个预定义的数据结构: typedef Seq > MxInt2d; 我现在想要一个包含多个 Mx
我是一名优秀的程序员,十分优秀!