docker - docker中的kafka-spark流式传输
问题描述
我是容器和 docker 系统领域的新手,缺乏经验。我想在 Kafka 中编写一个生产者/消费者,并使用 pyspark 设置一些流和 ETL。现在我很清楚所需的流程和技术背景。
我想知道的是,如果我只需要创建一个上述的小演示,并在 docker 中与我的学生共享文件,那么他们所要做的就是将它安装在他们的最后,看看它是如何工作的,是这样吗?甚至有可能?
解决方案
您可以使用所需的部署创建一个简单的docker compose,并与学生共享 docker compose 工件。
此外,如果您未绑定到 Spark ,您可以查看WSO2 流处理器,它提供了一个交互式 UI 来编写流和 ETL 相关逻辑。
推荐阅读
- oracle - 防止 FAST_PCT mview 刷新
- google-cloud-build - PROJECT_ID env 和 Secret Manager 访问
- sql - 聚合函数(MAX 等)返回 NULL 而不是没有行
- sql - 什么是正确的查询?
- css - 为什么 Sass 使用嵌套媒体查询不尊重 CSS 属性的顺序?
- python - python / plotly(express)中的堆积条形图:条形的分组/排序
- java - 在 Java 中连接来自多个源的表
- flutter - NoSuchMethodError:在 null 上调用了 getter
- ruby - 在 Ruby 中与负载测试一起使用的随机数据生成器
- javascript - 为什么使用“等待”在“异步”功能中不起作用。未等待完成的功能