gpt4 book ai didi

elasticsearch - 通过 LogStash 批量导入数据

转载 作者:行者123 更新时间:2023-12-02 22:34:36 25 4
gpt4 key购买 nike

我必须通过 LogStash 批量导入数据,如下所示:

来源:Restful Get API

目的地: Elasticsearch

我的 logstash 配置文件如下所示:

input {
http_poller {
urls => {
test1 => {
method => get
url => "https://forun/questions?limit=100&offset=0"
headers => {
Accept => "application/json"
}
}
}

output {
elasticsearch{
hosts => ["localhost:9200"]
index => "testindex"
}
stdout {
codec => rubydebug
}
}

这一次获取 200 条记录。

但是,我有超过 10000 条记录,需要在 http-poller 插件的输入中应用分页逻辑。

请帮助我如何在这里应用分页逻辑。

最佳答案

我不确定这是否是正确的架构。为什么您决定将数据拉入 Logstash(使用 http_poller 输入插件)而不是将数据推送到 Logstash?

如果是单次批量上传;您可以编写一些脚本来通过 http(使用 http 输入插件)将事件直接发送到 Logstash。或者,如果它不是单个批量上传,并且有大量数据会随着时间的推移而增长,您可以考虑将事件发送到 Kafka/Redis/RabbitMQ 之类的东西,这些东西可以使用关联的输入插件流式传输到 Logstash。

关于elasticsearch - 通过 LogStash 批量导入数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61775333/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com