gpt4 book ai didi

elasticsearch - Logstash 未更新上次运行的元数据文件

转载 作者:行者123 更新时间:2023-11-29 02:53:03 24 4
gpt4 key购买 nike

在我的 Logstash 中,我想使用 :sql_last_value 从数据库下载最新数据在查询和tracking_column conf文件中的选项。我已经设置 last_run_metadata_path因为我有 2 个管道用于同一个表,但 Logstash 只保存最后一个日期一次或停止保存新日期,现在我可以在日志中看到它使用相同的 :sql_last_value 运行查询来自元数据文件。

这就是我的 conf 文件的样子,它有许多 jdbc 输入,其中之一如下:

  jdbc {
jdbc_driver_library => "/opt/logstash/lib/ojdbc8.jar"
jdbc_driver_class => "Java::oracle.jdbc.driver.OracleDriver"
jdbc_connection_string => ""
jdbc_user => ""
jdbc_password => ""
schedule => "*/15 * * * *"
statement_filepath => "/etc/logstash/queries/UAT/transactions_UAT.sql"
use_column_value => true
tracking_column => 'sys_created_on'
tracking_column_type => "timestamp"
last_run_metadata_path => "/etc/logstash/conf.d/lastrun_metadata/transactions_uat_metadata"
tags => ["transactions_uat"]
}

元数据文件的内容:

--- 2018-05-26 08:41:55.000000000 -04:00

我可以在日志中看到 Logstash 始终使用元数据文件中的相同日期,并且较新的更新它:

select * from snc_uat.syslog_transaction0007
where "sys_created_on" >= TIMESTAMP '2018-05-26 08:41:55.000000 -04:00'

Logstash 正在运行并正在下载最新数据,但不必要地处理已经存在的数据。为什么 Logstash 不更新元数据?

最佳答案

这是因为您的比较运算符大于或等于,即 >= 请将其更改为 > 它将解决您的问题.希望对您有所帮助。

关于elasticsearch - Logstash 未更新上次运行的元数据文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50603322/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com