apache-kafka - 一些数据没有被 kafka-engine 消耗
问题描述
我们使用 kafka-engine 连接 kafka 主题,然后使用 MATERIALIZED VIEW 存储数据。
但是时不时会有一些数据没有被kafka-engine消费掉(因为我们也使用flume将数据放到hdfs文件中,这些丢失的数据可以在hdfs文件中找到)。
除了升级clcikhouse服务器版本(我们正在升级clickhouse服务器)之外,还有其他方法可以找到相关日志以定位问题
解决方案
<kafka><debug>all</debug></kafka>
您可以通过将片段添加到 clickhouse config.xml 文件来启用 rdkafka 日志
日志将被写入 /var/log/clickhouse-server/stderr 文件(在 docker - 到 docker 日志中)。
推荐阅读
- c - 为什么Arduino(Mega 2560)在端口监视器中显示少5个循环迭代结果?
- c++ - 如何将构造函数参数注入接口绑定?
- sprite - 尽管是精灵,但只能将精灵添加到组中
- c++ - 用于递归继承的具有类型和非类型参数混合的 C++ 可变参数模板
- r - R中构面图的颜色条宽度
- r - 如何获取 R markdown 中当前部分和子部分的数量?
- android-studio - 无法在 Android Studio 中解决以下三个依赖项
- spring - HashMap中的Spring Boot Bean验证不起作用
- android - 用户消息平台:重置同意
- macos - Docker(compose v3)静态IP,不绑定到本地主机 - Mac