docker - 从 docker 容器在 dataproc 中运行 pyspark 数据帧
问题描述
1-我创建了一个使用 docker 作为初始化操作的 dataproc 集群
gs://dataproc-initialization-actions/docker/docker.sh
根据:https ://github.com/GoogleCloudDataproc/initialization-actions/tree/master/docker docker 应该在主节点和工作节点中配置
2-我在主服务器中有 SSH,安装了 docker-compose 并在那里克隆了我的应用程序。我的应用程序是一个烧瓶(python)服务器,它根据 API 请求处理一些数据并发回响应。
由于我的逻辑在 docker 容器内,我想从容器内调用 dataproc 主控器。 我已经在我的容器中安装了 pyspark,但我不确定如何从我的 docker 容器中运行 pyspark 代码,这些代码可以由主机上的 dataproc master + workers 执行?
解决方案
推荐阅读
- c - 无法在 Windows 上构建 Perl 模块 XString
- c++ - 如何在 C++ Visual Studio 中使用 alt 代码符号
- c# - 异步任务不会返回到我的任务运行调用类
- regex - awk oneliner 提取匹配字符串旁边的行,但不提取匹配的行
- reactjs - 在填充对象之前获取未定义的对象
- plsql - 替换链,plsql
- button - JavaFX - 将滑块绑定到按钮的禁用属性
- python-3.x - 将 Pathlib 与 PyQt5 一起使用
- javascript - 转换不起作用(CSS 和 JS)切换类
- python - 使用 Flask 映射 URL 路径参数