pattern-matching - 解析统计文件 - Logstash 的多行模式(不是错误消息)
问题描述
我的日志文件有一些来自 Kafka 的统计数据,如下所示。如何解析这些值以将它们放入 Influx DB。我是 Logstash 的新手。如果不是为了实际的答案,如果有人能指出我学习这样做的材料,那就太好了
[20200423 20:40:41.469 IST (StatsCollector-1) firm.pos.kafka.KafkaStatsCollector#logStats INFO]
Kafka Statistics...
Total Time: 19743.848 s, Num of updates: 1322652, Updates/sec: 66.991, Transport time: 375599.683 ms/msg.
Topic wise number of updates published.
Topic Updates/sec Num of updates Transport time (ms/msg)
pos.user.1.2.agg 0.000 8 313370.000
pos.user.2.3.agg 0.000 1 1072398.000
pos.user.4.53.agg 0.002 47 192315.383
pos.user.45.5.agg 0.000 2 626744.000
pos.user.22.222.agg 0.002 49 1039206.755
pos.user.222.44.agg 0.000 3 43196.000
pos.user.242.42.seed 0.000 4 163960.750
解决方案
推荐阅读
- android - 在 MVP 模式中,哪一层应该检查互联网连接?
- state - Vuex 不能使用不同的组件
- php - 使用nodeMCU在mysql中写入dht11传感器失败
- testng - 对所有测试方法使用相同的数据提供者
- java - 如何捕获 Spring/Spring Boot 2.x 的所有异常?
- git - 在 gitlab 中删除上游仓库
- css - 如何防止图像及其填充和边距溢出侧边栏?
- r - 如何在字符串列表之间放置一个空格?
- sql-server - 为什么小数的精度范围宽度存在差异?
- types - Agda 级别错误信息的含义: ... : .Agda.Primitive.Level