gpt4 book ai didi

csv - 使用 Logstash CSV 过滤器不起作用

转载 作者:行者123 更新时间:2023-12-01 00:51:30 25 4
gpt4 key购买 nike

我试图在 Logstash 上使用 CSV 过滤器,但它可以上传我的文件的值。
我使用的是 Ubuntu Server 14.04、kibana 4、logstash 1.4.2 和 elasticsearch 1.4.4。
接下来,我将展示我编写的 CSV 文件和过滤器。难道我做错了什么?

CSV 文件:

Joao,21,555
Miguel,24,1000
Rodrigo,43,443
Maria,54,2343
Antonia,67,213

Logstash CSV 过滤器:
#Este e filtro que le o ficheiro e permite alocar os dados num index do Elasticsearch
input
{
file
{
path => ["/opt/logstash/bin/testeFile_lite.csv"]
start_position => "beginning"
# sincedb_path => "NIL"
}
}
filter
{
csv
{
columns => ["nome", "idade", "salario"]
separator => ","
}
}
output
{
elasticsearch
{
action => "index"
host => "localhost"
index => "logstash-%{+YYYY.MM.dd}"
}
stdout
{
codec => rubydebug
}
}

当我执行过滤器时,出现:使用里程碑 2 输入插件 'file'... 和使用里程碑 2 输入插件 'csv'... 并且没有出现 OK 消息。

有人可以帮助我吗?

最佳答案

我解决了在输入文件中添加字段sincedb_path 的问题。

这是 Logstash CSV 过滤器:

input
{
file
{
path => "/opt/logstash/bin/testeFile_lite.csv"
type => "testeFile_lite"
start_position => "beginning"
sincedb_path => "/opt/logstash/bin/dbteste"
}
}
filter
{
csv
{
columns => ['nome', 'idade', 'salario']
separator => ","
}

}
output
{
elasticsearch
{
action => "index"
host => "localhost"
index => "xpto"
cluster => "SIC_UTAD"
}

stdout
{
codec => rubydebug
}
}

关于csv - 使用 Logstash CSV 过滤器不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31095020/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com