scala - 将 Batch Queries 的输出写入 Kafka for Spark 2.1.1 版
问题描述
有人可以告诉我如何将批处理查询的输出加载到 kafka。
我在 stackoverflow 和其他文章中进行了很多研究,但我找不到 Spark 2.1.1 的任何内容。
对于更高版本的 spark,有一种简单的加载方法(链接)。但是我需要在 Spark 2.1.1 中进行操作。
谢谢你 。
解决方案
推荐阅读
- sox - 噪音消除但文件持续时间减少
- ignite - Difference between Apache Ignite SQL and Scan Query?
- git - 如何从原点完全删除分支,以使 repo 大小也减小
- vue.js - Vuepress - 组件定制
- regex - 用正则表达式匹配浮点数
- delphi - Delphi 10.4 事件视图在调试期间未更新
- javascript - 用于移动设备的 window.print
- gitlab - 如何添加带有动态分支的 gitlab 徽章?
- android - getEnabledAccessibilityServiceList 返回错误的结果
- react-native - 为什么不能在使用 Hooks 的 React Native 中清除 TextInput 中的值?