gpt4 book ai didi

elasticsearch - 从postgres导入2000万行到elasticsearch时,logstash OutOfMemory错误

转载 作者:行者123 更新时间:2023-12-03 00:34:54 25 4
gpt4 key购买 nike

我有2000万行来自postgresql的sql转储文件。我想将其移动到elasticsearch,所以我使用logstash,并使用以下语句:statement => "select * from students"。但是我总是得到outOfMemory错误。我有16克内存,我将logstash和elasticsearch XMx更改为12克,但此错误尚未发生。我认为这是因为select语句。它对内存造成巨大负担。我该怎么办 ?感谢您的帮助。

最佳答案

您需要做的就是配置这些参数

  • jdbc_fetch_size-指定获取大小。
    这是它的链接-> https://www.elastic.co/guide/en/logstash/current/plugins-inputs-jdbc.html#_dealing_with_large_result_sets

  • 此外,对SQL查询的分页结果使用以下参数
  • jdbc_page_size
  • jdbc_paging_enabled

  • 这将在内部使用sql limit属性。

    关于elasticsearch - 从postgres导入2000万行到elasticsearch时,logstash OutOfMemory错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48849326/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com