apache-kafka - 通过 Nifi 进行微批处理
问题描述
我有一个场景,我的 kafka 消息(来自同一主题)流经单个浓缩管道并在最后写入 HDFS 和 MongoDB。我用于 HDFS 的 Kafka 消费者将按小时运行(用于微批处理)。所以我需要知道根据流文件来自哪个消费者(HDFS 的消费者或 Mongo DB 的消费者)将流文件路由到 putHDFS 和 putMongo 的最佳方法。
或者请建议是否有任何其他方法可以通过Nifi实现微批处理。
谢谢
解决方案
您可以将 Nifi 设置为对上传数据的处理器使用调度策略。
而且我认为您希望 Kafka 消费者始终读取数据,在 NiFi 中构建积压的 FlowFiles,然后以较低频率运行 put。
这类似于 Kafka Connect 为其 HDFS 连接器运行的方式
推荐阅读
- java - 请帮助在 Java 代码中阅读此抽象数据类型
- parallel-processing - 在并行循环中,如果多个线程的条件为真而不是第一次遇到
- ios - 用作分页加载器时的 Gif,有时不显示在图像视图中
- c# - C# 中的自定义自动属性
- export - 如何使用 IronPython 脚本仅导出 Spotfire Selected 列?
- html - 隐藏在粘性导航栏后面的文本 (HTML/CSS)
- angular - Primeng P-calendar issue (UTC)
- php - Slim 框架给出了一个令人困惑的未捕获类型错误
- php - MySQL数据库的PHP编辑表单
- c++ - grpc builder.BuildAndStart() 挂在 aarch64 但不是 x86_64