- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在使用 Spring Kafka 模板来生成消息。而且它产生消息的速度太慢了。生成 15000 条消息大约需要 8 分钟。
以下是我如何创建 Kafka 模板:
@Bean
public ProducerFactory<String, GenericRecord> highSpeedAvroProducerFactory(
@Qualifier("highSpeedProducerProperties") KafkaProperties properties) {
final Map<String, Object> kafkaPropertiesMap = properties.getKafkaPropertiesMap();
System.out.println(kafkaPropertiesMap);
kafkaPropertiesMap.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
kafkaPropertiesMap.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, AvroGenericSerializer.class);
return new DefaultKafkaProducerFactory<>(kafkaPropertiesMap);
}
@Bean
public KafkaTemplate<String, GenericRecord> highSpeedAvroKafkaTemplate(
@Qualifier("highSpeedAvroProducerFactory") ProducerFactory<String, GenericRecord> highSpeedAvroProducerFactory) {
return new KafkaTemplate<>(highSpeedAvroProducerFactory);
}
@Async("servicingPlatformUpdateExecutor")
public void afterWrite(List<? extends Account> items) {
LOGGER.info("Batch start:{}",items.size());
for (Test test : items) {
if (test.isOmega()) {
ObjectKeyRecord objectKeyRecord = ObjectKeyRecord.newBuilder().setType("test").setId(test.getId()).build();
LOGGER.info("build start, {}",test.getId());
GenericRecord message = MessageUtils.buildEventRecord(
schemaService.findSchema(topicName)
.orElseThrow(() -> new OmegaException("SchemaNotFoundException", topicName)), objectKeyRecord, test);
LOGGER.info("build end, {}",account.getId());
LOGGER.info("send Started , {}",account.getId());
ListenableFuture<SendResult<String, GenericRecord>> future = highSpeedAvroKafkaTemplate.send(topicName, objectKeyRecord.toString(), message);
LOGGER.info("send Done , {}",test.getId());
future.addCallback(new KafkaProducerFutureCallback(kafkaSender, topicName, objectKeyRecord.toString(), message));
}
}
LOGGER.info("Batch end}");
}
metric.reporters = []
metadata.max.age.ms = 300000
reconnect.backoff.ms = 50
sasl.kerberos.ticket.renew.window.factor = 0.8
bootstrap.servers = [***VALID BROKERS****))]
ssl.keystore.type = JKS
sasl.mechanism = GSSAPI
max.block.ms = 9223372036854775807
interceptor.classes = null
ssl.truststore.password = null
client.id = producer-1
ssl.endpoint.identification.algorithm = null
request.timeout.ms = 30000
acks = all
receive.buffer.bytes = 32768
ssl.truststore.type = JKS
retries = 2147483647
ssl.truststore.location = null
ssl.keystore.password = null
send.buffer.bytes = 131072
compression.type = none
metadata.fetch.timeout.ms = 60000
retry.backoff.ms = 100
sasl.kerberos.kinit.cmd = /usr/bin/kinit
buffer.memory = 800000000
timeout.ms = 30000
key.serializer = class org.apache.kafka.common.serialization.StringSerializer
sasl.kerberos.service.name = kafka
sasl.kerberos.ticket.renew.jitter = 0.05
ssl.trustmanager.algorithm = PKIX
block.on.buffer.full = false
ssl.key.password = null
sasl.kerberos.min.time.before.relogin = 60000
connections.max.idle.ms = 540000
max.in.flight.requests.per.connection = 10
metrics.num.samples = 2
ssl.protocol = TLS
ssl.provider = null
ssl.enabled.protocols = [TLSv1.2]
batch.size = 40000000
ssl.keystore.location = null
ssl.cipher.suites = null
security.protocol = SASL_SSL
max.request.size = 1048576
value.serializer = class com.message.serialization.AvroGenericSerializer
ssl.keymanager.algorithm = SunX509
metrics.sample.window.ms = 30000
partitioner.class = class org.apache.kafka.clients.producer.internals.DefaultPartitioner
linger.ms = 2
2018-04-27 05:29:05.691 INFO - testservice - - UpdateExecutor-1 - com.test.testservice.adapter.batch.testsyncjob.UpdateWriteListener:70 - build start, 1
2018-04-27 05:29:05.691 INFO - testservice - - UpdateExecutor-1 - com.test.testservice.adapter.batch.testsyncjob.UpdateWriteListener:75 - build end, 1
2018-04-27 05:29:05.691 INFO - testservice - - UpdateExecutor-1 - com.test.testservice.adapter.batch.testsyncjob.UpdateWriteListener:76 - send Started , 1
2018-04-27 05:29:05.778 INFO - testservice - - UpdateExecutor-1 - com.test.testservice.adapter.batch.testsyncjob.UpdateWriteListener:79 - send Done , 1
2018-04-27 05:29:07.794 INFO - testservice - - kafka-producer-network-thread | producer-1 - com.test.testservice.adapter.batch.testsyncjob.KafkaProducerFutureCallback:38
ObjectKeyRecord objectKeyRecord = ObjectKeyRecord.newBuilder().setType("test").setId(test.getId()).build();
GenericRecord message = MessageUtils.buildEventRecord(
schemaService.findSchema(testConversionTopicName)
.orElseThrow(() -> new TestException("SchemaNotFoundException", testTopicName)), objectKeyRecord, test);
byte[] messageBytes = serializer.serialize(testConversionTopicName,message);
LOGGER.info("send Started , {}",test.getId());
ListenableFuture<SendResult<String, byte[]>> future = highSpeedAvroKafkaTemplate.send(testConversionTopicName, objectKeyRecord.toString(), messageBytes);
LOGGER.info("send Done , {}",test.getId());
future.addCallback(new KafkaProducerFutureCallback(kafkaSender, testConversionTopicName, objectKeyRecord.toString(), message));
最佳答案
您是否已对您的应用程序进行了概要分析?例如使用 YourKit。
我怀疑是 Avro 序列化器;我能够在 274 毫秒内发送 15,000 条 1000 字节的消息。
@SpringBootApplication
public class So50060086Application {
public static void main(String[] args) {
SpringApplication.run(So50060086Application.class, args);
}
@Bean
public ApplicationRunner runner(KafkaTemplate<String, String> template) {
return args -> {
Thread.sleep(5_000);
String payload = new String(new byte[999]);
StopWatch watch = new StopWatch();
watch.start();
for (int i = 0; i < 15_000; i++) {
template.send("so50060086a", "" + i + payload);
}
watch.stop();
System.out.println(watch.prettyPrint());
};
}
@Bean
public NewTopic topic() {
return new NewTopic("so50060086a", 1, (short) 1);
}
}
StopWatch '': running time (millis) = 274
关于apache-kafka - spring kafka 模板生产者表现,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50060086/
kafka的java客户端-生产者 生产者消息发送流程 发送原理 在消息发送的过程中,涉及俩个线程,main线程和sender线程,在main线程中创建一个双端队列RecordAccumulator。
我使用互斥体和条件编写了一个生产者/消费者程序。它使用全局 int 来生成和使用值。有 1 个消费者线程和多个生产者线程。 规则: 当值太小时,消费者会等待。 当值太大时,生产者就会等待。 我的问题是
我有兴趣发现当有多个产品和多个消费者时是否可以在不使用赋值的情况下解决生产者 - 消费者问题,即使用函数式编程风格?如何? Producer-consumer problem 谢谢 最佳答案 是的,您
单个进程中的两个不同线程可以通过读取和/或写入共享一个公共(public)内存位置。 通常,这种(有意的)共享是通过使用 lock 的原子操作来实现的。 x86 上的前缀,对于 lock前缀本身(即非
我正在尝试编写一个简单的生产者-消费者应用程序,在该应用程序中,我需要从文件中读取大块数据(可能很大),并且(出于简单测试目的)只需通过另一个线程将其写入另一个文件中即可。 我尝试了很多在线资源,但是
我已经为kafka(wurstmeister / kafka-docker)构建了一个docker镜像。在docker容器内部,我能够使用内置的shell脚本创建主题,生成消息并使用消息。现在,我正在
我正在尝试模拟关于多线程的生产者-消费者模型。 我们假设要遵守三个规则: 当桶装满产品时,生产者不能将产品添加到桶中。 当桶为空时,消费者无法从桶中获取产品。 生产和消费不能同时进行。换句话说,这两个
我有一个生成器应用程序,可以生成索引(将其存储在某些内存树数据结构中)。消费者应用程序将使用索引来搜索部分匹配。 我不希望消费者 UI 在生产者索引数据时必须阻塞(例如通过某些进度条)。基本上,如果用
我正在尝试为我遇到的排队问题找到解决方案。在典型的场景中,生产者将一些东西放入队列中,而消费者将其取出。如果我们有一个也消费的生产者和一个最初从队列中取出某些内容然后将某些内容(例如结果)放回到队列中
虽然以下是众所周知的话题,但我想请您提供意见。我写了一个小程序如下:所有生产者和消费者都排队。我不明白为什么会这样。什么场景下可以完全阻塞。 让我们考虑一下生产者/消费者正在等待数组上的锁,以及是什么
下面是我用于实现生产者-消费者问题的代码。使用 notifyAll() 一切正常,但是由于性能原因,我想用 notify() 替换所有出现的 notifyAll() >. 我发现通过将 notifyA
我有一个生产者-消费者的基本实现,如下所示: 我的问题是如何使线程数:x ~ y 来提高应用程序性能和负载平衡?有人有关键字或提示吗?预先感谢您! 最佳答案 您应该能够通过 Little's La
我编写了一个类“Producer”,它连续解析特定文件夹中的文件。解析的结果将存储在Consumer的队列中。 public class Producer extends Thread { p
我遇到“生产者 - 消费者任务”中可能出现死锁的问题。一切都应该按以下方式进行: 生产者应该生成 int[] 数组并将其添加到集合中 消费者应该获取这些数组,将它们放入第二个集合并在输出中打印 在 D
我正在为我的操作系统类(class)做一个 CPU 调度模拟器项目。该程序应包含两个线程:生产者线程和消费者线程。生产者线程包括在系统中生成进程的生成器和选择多个进程并将它们放入一个名为 Buffer
我想知道是否可以通过 AMQP 和 RabbitMQ 为生产者和消费者使用不同的语言? 例如:Java 用于生产者,python/php 用于消费者,还是反之? 最佳答案 是的,AMQP 与语言无关,
编辑:我有一个生产者类,它将一些数据发送到 SharedBuffer 类。该数据被添加到 ArrayList 中,限制设置为 100。将数据添加到所述列表中没有问题,但消费者类无法从列表中获取任何数据
我正在尝试在有界缓冲区中使用生产者/消费者线程。缓冲区长度为 5。我有 1 个互斥体和 2 个信号量,空信号量从缓冲区大小开始,满信号量从 0 开始。 当我在最后没有 sleep() 的情况下运行代码
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 9 年前。 Improve this ques
我用Java的LinkedBlockingDeque实现了生产者-消费者模式,但我遇到了一个问题,我有时想将一个项目(已经在队列中的某个位置)移动到队列的前面,以便更快地处理它。我永远不知道哪些已经排
我是一名优秀的程序员,十分优秀!