logging - Fluentd 过滤异常——kubernetes 集中式日志记录
问题描述
我正在尝试在我的 kubernetes 集群上添加集中式日志记录。我已经使用安装了 EFK 堆栈举个例子。一切正常,但我的应用程序的日志是字符串格式的,我想在弹性搜索中将日志写为 json。
我在fluentd中找到了一个使用过滤器的解决方案,如下所示:
<filter kubernetes.**>
@type parser
key_name log
hash_value_field parsed
<parse>
@type json
</parse>
</filter>
我现在的问题是,并非所有 pod 都以 json 格式记录,这会在 fluentd 中生成解析异常。
如何过滤这些 json 日志并保持其他日志不变?
谢谢
解决方案
推荐阅读
- javascript - 一组对象数组
- angular - 如何使 d3 堆叠条形图上的退出设置正常运行?
- php - 如何检查登录用户在 Laravel 5 的管理列上是否有“1”?
- c# - 异常不会从任务 (TPL) 中冒泡
- android - 如何在 Android 上将 Javascript 注入 GeckoView
- python - 在将列表移动到另一个函数之前将列表更改为元组在计算上是否更快?
- java - 为什么当我想从文本文件中删除字符串时它不起作用?
- python - 与for循环表单集断开连接后如何重新连接django信号
- c# - 当 ShowInTaskbar="False" 时检测窗口被 Win+D 最小化
- ruby - 在 eval 语句中面临“没有将 nil 隐式转换为字符串”错误