gpt4 book ai didi

Playframework 执行上下文 : can I limit queue size?

转载 作者:行者123 更新时间:2023-12-03 16:21:09 26 4
gpt4 key购买 nike

我正在使用单独的执行上下文在后台执行一些阻塞操作(调用阻塞 API 以调用外部 Flume 服务器)。

flume{
context = {
fork-join-executor {
parallelism-min = 300
parallelism-max = 300
}
}
}

我的问题是有时 flume 服务器会崩溃,Akka 队列中等待任务的数量会增加并导致内存问题。有没有办法限制这个执行上下文的队列?

也许是这样的? :

 mailbox-capacity = 1000

谢谢

最佳答案

一个解决方案是用thread-pool-executor 替换fork-join-executor 上下文:

flume{
context = {
thread-pool-executor {
core-pool-size-min = 300
core-pool-size-min = 300
max-pool-size-min = 300
max-pool-size-max = 300
task-queue-size = 1000
task-queue-type = "linked"
}
}
}

关于Playframework 执行上下文 : can I limit queue size?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28295509/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com