hadoop - Apache Flume 能否从 AWS Kinesis 或 GCP Pub/Sub 收集数据?
问题描述
我正在使用 Flume 将流数据从 Kafka 收集到 HDFS。
但是数据源可能会变成多个。
因此,我想知道我是否可以构建一个数据收集系统:
Kafka / Kinesis / Pub/Sub -> Flume -> HDFS(存储)/ Flink(处理)。
但似乎我找不到有关如何将 Flume 连接到 Kinesis、pub/sub 的数据。这是可行的吗?任何帮助表示赞赏。
解决方案
推荐阅读
- laravel - 后续请求中未传递访问令牌(Laravel 和 Vue SPA 的 websanova/vue-auth)
- api - 错误 HTTP 500.19 - 内部服务器错误 (0x8007000d)
- node.js - Typescript - 节点 js - const 声明中缺少初始化程序
- reactjs - 如何在 FieldArray 的对象中正确写入单选按钮值?
- perl - 如何确定执行的 ghostscript 命令是否在 Perl 中返回错误?
- char - 当我声明一个 int、double 和 char 时发生了什么;我为 int 输入一个 double,为一个 double 输入一个 int?似乎它把事情分开了
- performance-testing - 在负载测试期间随机输入 URL
- javascript - 动态填充的控件不会触发事件 - jQuery 3.6.0
- amazon-web-services - 限制不适用于 AWS Lambda 函数
- codeceptjs - 如何在 Codecept + playwright 中从 excel 中读取数据