apache-kafka - filebeat 可以将一个数据传输到logstash 和kafak 吗?
问题描述
我想用filebeat发送一个日志到logstash和kafak,然后logstash发送日志到es,我可以在es中搜索,kafak用它来分析数据。
文件节拍.yml
output.logstash:
hosts: ["172.31.29.xxx:5044"]
output.kafka:
enabled: true
hosts: ["xxx"]
topic: "test-log"
不行啊,有什么办法吗?
解决方案
你不能,filebeat 只支持一个输出。
你有两种方法可以做你想做的事。
- 仅将您的日志发送到 Kafka 并配置 logstash 以读取该 Kafka 主题,然后发送到 elasticsearch。
- 将您的日志发送到 logstash,并将 logstash 输出到 Kafka 和 elasticsearch。
使用第一个选项,您将在 Kafka 中获取原始事件并使用 logstash 从中读取并在需要时应用一些过滤器,使用第二个选项,如果您想应用一些过滤器并仍然发送原始事件,则需要克隆每个事件卡夫卡的事件。
推荐阅读
- python-3.x - 我编写了一个简单的程序来自动化斐波那契数列,但它不起作用,我不知道为什么
- ios - CloudKit 记录 ID 不是唯一的
- javascript - Webpack - 如何使用异步功能导入脚本
- azure-pipelines - Devops 中的 AdvancedInstaller - 无法同步文件
- flutter - Flutter Hive 无法检索 Map{}
- java - 以下在play 2.8.* import javax.persistence.MappedSuperclass中无法解决;
- vega-lite - 如何按时间单位对数据进行分箱和计数
- c - 你能解释一下 printf 的返回值分配给变量的代码吗?
- sqlite - 无法使用带有两个按钮的烧瓶从 sqlite db 中删除记录
- java - 增强循环不打印我所期望的