apache-kafka - 是否可以单独使用 Flume Kafka Source?
问题描述
假设有一堆生产者将 avro 记录(具有相同的模式)写入 Kafak 主题。
我可以使用 Flume Kafka Source 读取这些记录并将它们写入 HDFS。即使没有使用 Flume Sink 发布记录?
解决方案
是的你可以。一般来说,Kafka 消费者能做什么或不能做什么完全独立于谁产生了数据,而只取决于数据被编码的格式。
这就是 Kafka 和企业服务总线的全部意义所在。
推荐阅读
- git - 如何使用 github API 获取特定用户向其发出拉取请求的项目列表?
- javascript - 如何使用父容器控制一组视频?
- android - Android - 设置应用程序的默认“打开支持的链接”选项
- python-3.x - if语句python for循环中的循环错误
- python - 在 google colab 上永久添加路径
- spring - Spring MVC 5 Rest API 使用 JAXB 将 XML 转换为 Bean
- android - 如何清除 Api 29 及更低版本上的 Windownsets 类型标志
- reactjs - 组件是否有可能知道它在哪里“实现”与“渲染”
- c# - WhiteStack 组合框获取所选项目
- c# - 需要帮助通过事件的日期