apache-flink - Flink 从 Hadoop 读取数据并发布到 Kafka
问题描述
我需要从 HDFS 读取数据并将其发布到 Kafka 主题。因为它们是 DataSet 和 DataStream API 的一部分,是否有可能在一项工作中完成我正在寻找的事情?
解决方案
Flink 的 DataStream API 可用于读取 HDFS 文件。请参阅https://ci.apache.org/projects/flink/flink-docs-stable/dev/datastream_api.html#data-sourcesreadfile()
。或者您可以将文件系统连接器与 Table 和 SQL API 一起使用,但它仅支持 CSV。
推荐阅读
- amazon-web-services - 如何在 S3 中以最快的方式更改存储类
- python - 用于聊天机器人和安装过程的 Python 库
- ios - Apple RealityKit:如何使用 ModelEntity 绘制多边形平面?
- php - 使用 if 条件检查 Laravel 数据库中的值时出现语法错误
- java - 使用 Servlet 和 JSP 从 PostgreSQL 数据库中检索和显示图像
- reactjs - Redux 表单组件“onSubmitSuccess”单元测试
- algorithm - 得到 x。“线性同余生成器”的值
- javascript - 使用表示大于 Number.MAX_SAFE_INTEGER 的值的字符串调用 parseInt
- python - 如何防止选择第一行作为索引列
- c# - 在 C# 中使用 Enumerable 初始化具有相同值的数组数组