elasticsearch - 在 logstash 过滤器中使用 es_bulk 编解码器
问题描述
我的任务是检查传入数据的大小,因此我使用纯编解码器启用了 http 过滤器。然后我将消息大小添加到事件字段并将此事件重新发送到另一个管道。但似乎我不能在下游管道输入插件中使用编解码器,因为原始消息已经在message
事件字段中。我需要将弹性搜索批量格式化数据转换为几个事件,我该怎么做?
解决方案
推荐阅读
- python - Softmax随时间计算功能?
- python - python:从字符串中删除杂散字节
- python - 如何在熊猫中获得第一行和当前行之间的差异
- python-3.x - 多项朴素贝叶斯softmax改变
- javascript - 用真实的启动画面替换 React Native Expo 启动画面图像
- python - 什么叫 variable.methodName() 函数/方法?
- c++ - c ++,监视Windows中的更改目录-未在此范围内声明_tsplitpath_s
- python - Python:如何使用 Request 提交 CGI 表单
- c# - 用私有属性包装我自己的类数据
- javascript - console.log 不是 nodejs fs.readfile 中的函数