apache-spark - 将 Scalapb 与 spark 结构化流和 java 生成的 protobuf 类一起使用
问题描述
我正在从事的项目处于规划/原型设计阶段,我们希望使用 Kafka 中的 protobuf 编码消息和结构化流将我们的数据流式传输到 spark 3 中。我们已经使用火花流(与结构化流)进行原型设计,我们可以在其中指定 Kafka 将使用的 serde 类,但对于结构化流,它显然不同。
从我到目前为止所读到的,似乎最干净的方法是使用 scalapb。它的文档看起来很简单(谢谢!)但是我无法确定它是否可以与现有的生成的 Java protobuf 类一起使用,或者我是否还必须生成这些相同 .proto 文件的 Scala 版本。
使用文档@ https://scalapb.github.io/docs/sparksql中的示例, Person 类可以是 Java 还是 Scala?
解决方案
SparkSQL-ScalaPB 仅适用于 ScalaPB 生成的代码。
推荐阅读
- java - 异步任务 onPost 引发异常
- reactjs - 使用 React Redux 显示来自不同 API 调用的多条记录
- c# - 如何在统一 C# 中使用 UI 滑块更改 UI 文本元素的字体大小?
- python - 计算指数函数导数的极限
- java - 如何使用 ByteBuddy 创建默认构造函数?
- javascript - 如何使用 jquery 绑定表中的值?
- java - 如何将复选框添加到自定义列表视图?
- java - 根据另一列值从总和中减去或添加值
- ruby-on-rails - 如何使用确认页面更新唯一字段?
- mysql - 根据计算字段的值向 MYSQL SELECT 语句添加值