gpt4 book ai didi

java - 使用大字典执行logstash时出现堆空间错误(翻译过滤器)

转载 作者:行者123 更新时间:2023-12-01 18:22:58 25 4
gpt4 key购买 nike

我收到错误

java.lang.OutOfMemoryError: Java heap space while executing logstash with a 
large dictionary of 353 mega bytes in translate filter.

我用它来查找我的输入数据。

我尝试让 JVM 使用更多内存(使用 java -Xmx2048m)。假设我做错了,因为它没有效果。

我用“较小”的字典测试了我的配置文件,它工作得很好。有什么帮助吗?如何为logstash提供足够的RAM以免死掉?

我的配置文件如下所示:

input {  
file {
type => "MERGED DATA"
path => "C:\logstash-1.4.1\bin\..."
start_position => "beginning"
sincedb_path => "/dev/null"}}

filter {
grok {
match => [ "message", "..." ]}

if (...") {
translate {dictionary_path => "C:\logstash-1.4.1\bin\DICTIONARY.yaml" field => "Contact_ID" destination => "DATA" fallback => "no match" refresh_interval => 60 }

grok {match => [ "DATA", "..." ]}

mutate {remove_field => ...}

else if ...

else if ...

mutate { ... }
}
output { if [rabbit] == "INFO" {
elasticsearch {
host => "localhost"
}
stdout {}
}}

最佳答案

我也遇到了类似的问题。我的看起来

logstash <Sequel::DatabaseError: Java::JavaLang::OutOfMemoryError: Java heap space 

为了解决这个问题,我必须在 Logstash 配置文件中添加一些设置。我在 jdc 部分添加了以下设置

jdbc_paging_enabled => true
jdbc_page_size => 200000

你可以看看这个帖子 enter link description here

关于java - 使用大字典执行logstash时出现堆空间错误(翻译过滤器),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27156145/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com