首页 > 解决方案 > 一些数据没有被 kafka-engine 消耗

问题描述

我们使用 kafka-engine 连接 kafka 主题,然后使用 MATERIALIZED VIEW 存储数据。

但是时不时会有一些数据没有被kafka-engine消费掉(因为我们也使用flume将数据放到hdfs文件中,这些丢失的数据可以在hdfs文件中找到)。

除了升级clcikhouse服务器版本(我们正在升级clickhouse服务器)之外,还有其他方法可以找到相关日志以定位问题

标签: apache-kafkaclickhouse

解决方案


<kafka><debug>all</debug></kafka>您可以通过将片段添加到 clickhouse config.xml 文件来启用 rdkafka 日志

日志将被写入 /var/log/clickhouse-server/stderr 文件(在 docker - 到 docker 日志中)。


推荐阅读