apache-kafka - 使用 kafka 连接的 CSV 数据流
问题描述
我们有一个 CSV 文件格式的业务事件,需要使用 Kafka 附加到数据库(在我们的例子中是雪花)。
我们是否需要将 csv 文件转换为 JSON 格式(使用 python),然后将值传递给 kafka-producer 主题?
解决方案
使用卡夫卡连接。
- 使用Kafka Connect spooldir等连接器将 CSV 文件读入 Kafka (参见示例)
- 使用Snowflake 的 Kafka Connect 连接器从 Kafka 主题流式传输到 Snowflake (参见示例)
在本次演讲中了解有关 Kafka Connect 的更多信息。
推荐阅读
- assembly - 将结果存储在存储在寄存器 LC3 中的内存地址中
- c++ - 如何在 Visual Studio Code 中为 Linux 的 Windows 子系统设置包含路径
- install4j - 如何使用 install4j 创建捆绑的 jdk14?
- python - 关于 Django InMemoryUploadedFile 的问题
- sql - 试图获取按属性总和排序的对象列表
- asp.net-core - 如何在不使用 JavaScript 的情况下通过单击 Asp.net 核心中的向上和向下按钮来更改顺序
- python - 如何解决 Notepad++ 中不一致的缩进
- kotlin - IntelliJ 编译器警告为可变参数传播空数组
- flutter - 未处理的异常:输入“未来”
' 不是类型 'Future 的子类型 ' - c - 分段错误:11,在 C 代码中尝试打印结果时