- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试在裸机Kubernetes上安装Fluentd并将消息转发到ElasticSearch。
我要安装的Fluentd是“stable / fluentd --version 2.4.3” Helm 图。
我的ElasticSearch具有自定义的tls证书,并且可以正常工作。
#### Steps to replicate
bash-5.0# curl -u "elastic:636ByujI053Pl3Zu5E0ZsnG6" -k "https://escluster-es-http.elastic-system.svc.cluster.local:9200" | jq
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 546 100 546 0 0 7280 0 --:--:-- --:--:-- --:--:-- 7280
{
"name": "escluster-es-default-0",
"cluster_name": "escluster",
"cluster_uuid": "0XnwElYuQICbi-QELvNjsw",
"version": {
"number": "7.8.0",
"build_flavor": "default",
"build_type": "docker",
"build_hash": "757314695644ea9a1dc2fecd26d1a43856725e65",
"build_date": "2020-06-14T19:35:50.234439Z",
"build_snapshot": false,
"lucene_version": "8.5.1",
"minimum_wire_compatibility_version": "6.8.0",
"minimum_index_compatibility_version": "6.0.0-beta1"
},
"tagline": "You Know, for Search"
}
bash-5.0#
我的流利配置是;
...
output:
host: escluster-es-http.elastic-system.svc.cluster.local
port: 9200
scheme: https
sslVersion: TLSv1_2
buffer_chunk_limit: 2M
buffer_queue_limit: 8
env: {}
extraEnvVars:
- name: ELASTIC_PASSWORD
valueFrom:
secretKeyRef:
name: escluster-es-elastic-user
key: elastic
extraVolumes:
- name: es-certs
secret:
defaultMode: 420
secretName: es-tls
extraVolumeMounts:
- name: es-certs
mountPath: /certs
readOnly: true
...
已安装Fluentd,但无法连接到ElasticSearch。
devadmin@vdi-mk2-ubn:~/fluentd-stable$ kubectl logs fluentd-784b48c5c9-78cf4 -n elastic-system
2020-07-03 16:33:47 +0000 [info]: parsing config file is succeeded path="/etc/fluent/fluent.conf"
2020-07-03 16:33:47 +0000 [warn]: [elasticsearch] Could not connect Elasticsearch or obtain version. Assuming Elasticsearch 5.
2020-07-03 16:33:47 +0000 [info]: using configuration file: <ROOT>
<match fluent.**>
@type null
</match>
<source>
@type forward
port 24224
bind "0.0.0.0"
</source>
<match fluentd.**>
@type null
</match>
<source>
@type http
port 9880
bind "0.0.0.0"
</source>
<source>
@type monitor_agent
bind "0.0.0.0"
port 24220
tag "fluentd.monitor.metrics"
</source>
<match **>
@id elasticsearch
@type elasticsearch
@log_level "info"
include_tag_key true
host "escluster-es-http.elastic-system.svc.cluster.local"
port 9200
scheme http
ssl_version TLSv1_2
logstash_format true
validate_client_version false
<buffer>
@type "file"
path "/var/log/fluentd-buffers/kubernetes.system.buffer"
flush_mode interval
retry_type exponential_backoff
flush_thread_count 2
flush_interval 5s
retry_forever
retry_max_interval 30
chunk_limit_size 2M
queue_limit_length 8
overflow_action block
</buffer>
</match>
<system>
root_dir "/tmp/fluentd-buffers/"
</system>
</ROOT>
2020-07-03 16:33:47 +0000 [info]: starting fluentd-1.3.3 pid=1 ruby="2.3.3"
2020-07-03 16:33:47 +0000 [info]: spawn command to main: cmdline=["/usr/bin/ruby2.3", "-Eascii-8bit:ascii-8bit", "/usr/local/bin/fluentd", "--under-supervisor"]
2020-07-03 16:33:48 +0000 [info]: gem 'fluent-plugin-concat' version '2.3.0'
2020-07-03 16:33:48 +0000 [info]: gem 'fluent-plugin-detect-exceptions' version '0.0.11'
2020-07-03 16:33:48 +0000 [info]: gem 'fluent-plugin-elasticsearch' version '3.0.2'
2020-07-03 16:33:48 +0000 [info]: gem 'fluent-plugin-kubernetes_metadata_filter' version '2.1.6'
2020-07-03 16:33:48 +0000 [info]: gem 'fluent-plugin-multi-format-parser' version '1.0.0'
2020-07-03 16:33:48 +0000 [info]: gem 'fluent-plugin-prometheus' version '1.3.0'
2020-07-03 16:33:48 +0000 [info]: gem 'fluent-plugin-systemd' version '1.0.1'
2020-07-03 16:33:48 +0000 [info]: gem 'fluentd' version '1.3.3'
2020-07-03 16:33:48 +0000 [info]: adding match pattern="fluent.**" type="null"
2020-07-03 16:33:48 +0000 [info]: adding match pattern="fluentd.**" type="null"
2020-07-03 16:33:48 +0000 [info]: adding match pattern="**" type="elasticsearch"
2020-07-03 16:33:48 +0000 [warn]: #0 [elasticsearch] Could not connect Elasticsearch or obtain version. Assuming Elasticsearch 5.
2020-07-03 16:33:48 +0000 [info]: adding source type="forward"
2020-07-03 16:33:48 +0000 [info]: adding source type="http"
2020-07-03 16:33:48 +0000 [info]: adding source type="monitor_agent"
2020-07-03 16:33:48 +0000 [info]: #0 starting fluentd worker pid=10 ppid=1 worker=0
2020-07-03 16:33:48 +0000 [info]: #0 listening port port=24224 bind="0.0.0.0"
2020-07-03 16:33:48 +0000 [info]: #0 fluentd worker is now running worker=0
您能告诉我我所缺少的吗?
最佳答案
看来您的Elasticsearch集群已启用ssl。 Fluentd还需要在SSL上连接 flex
关于elasticsearch - Fluentd无法连接到Elasticsearch-[警告]:#0 [elasticsearch]无法连接Elasticsearch或获取版本。假设Elasticsearch 5,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62720558/
我正在寻找一种将 source_hostname 发送到 fluentd 目标服务器的方法。 我在 logstash 上,但我们有代理/服务器端,我们有变量来获取 logstash 服务器配置文件中的
我有一个包含 json 记录的文件,并且想在将它们发送到 fluentd 输出之前从 json 记录中删除一些键。我可以使用“record_transformer Filter Plugin”来删除键
我需要将我的应用程序日志发送到作为 EFK 服务一部分的 FluentD。所以我尝试配置另一个 FluentD 来执行此操作。 my-fluent.conf: @type kafka_group
环境:-适用于 Windows 的 Fluentd-td-agent 发行版。Elasticsearch-v6.1.2应用插件-Nodejs Fluent-logger 我正在尝试使用 Fluentd
用例:设置要发送到目标服务的最大消息数(在一个时间范围内)。 例子。我们从具有以下类型日志的服务 X 收集日志: {"@timestamp":"2020-10-30T13:00:00.310Z","l
我写 @type tail format nginx path /home/work/opt/nginx/var/log/access.log tag nginx.access 在
Guyz……我们被困住了……救救我们! :-) 我们有一个使用 Fluentd 的 3 步日志聚合管道。 [#1 - 尾部日志(原始日志)] --(TCP)--> [#2 - 将读取的日志解析为 JS
我有来源: @type tail tag service path /tmp/l.log format json read_from_head true 我
我想排除 serive_name 为空的行 "service_name":"" . 这是我流利的 conf ## match tag=debug.** and dump to console
我设置了在 Docker 引擎上运行的 Fluentd 和 Elasticsearch。我有大量服务想要登录到 Fluentd。 我想要做的是为我运行的每个服务创建一个标签,并使用该标签作为 Elas
我正在使用的当前设置是具有多个容器的 Docker 组合堆栈。这些容器将它们的日志信息发送到运行 Fluentd 守护进程的日志容器(在 compose 堆栈内)。 Fluentd 的配置包含一个 i
这是我的 FluentD 解析器配置:
用例是这样的:我有几个运行的 java 应用程序都必须与不同的(每个都有特定的目标)elasticsearch 索引交互。例如应用程序 A 使用 ElasticSearch 的索引 A、B、C 进行查
我正在尝试使用 cat_sweep 插件在 fluentd 中处理扩展名为 .gz 的日志文件,但我的尝试失败了。如下面的配置所示,我正在尝试处理 /opt/logfiles/* 位置下的所有文件。但
我的系统时间是:Tue Jan 6 09:44:49 CST 2015 td-agent.conf : type webhdfs host Page on test.com port 5
我刚刚开始使用 fluentd,但我希望能够设置单个输出匹配规则,如下所示: type file path logs/ time_slice_format %Y%m%dT%H
我正在从在 Docker Swarm 集群上运行我的容器迁移到在 Google Container Engine 上运行的 Kubernetes。在 Docker Swarm 上运行时,我配置了 Do
我正在尝试使用 Bindplane 将 Java 开发人员创建的“系统日志”上传到 Google 的 Stackdriver。 Bindplane 是基于 fluentd 构建的。 我使用的是源类型的
我在 k8s 中有一个相当简单的 Apache 部署,使用 fluent-bit v1.5 作为日志转发器。我的设置与下面的 repo 中的设置几乎相同。我正在运行 AWS EKS 并将日志输出到 A
编辑:我已根据efrat-levitan's的建议在评论中添加了新信息。当我按照原始注释的建议将Elasticsearch版本升级到7.6.0时,列出的日志输出略有不同。为了帮助调试,我也没有立即启动
我是一名优秀的程序员,十分优秀!