python - 将从远程存储库获取的 python 包传递给 spark 提交/shell
问题描述
我有一个 python 库打包为远程存储库(Artifactory)中可用的 zip 文件,我想使用包的坐标(名称和版本号)将它传递给 spark-shell 或 spark-submit 的 python 路径. 我目前正在对 jar 文件做同样的事情:
spark-shell --repositories https://artifactory.com/maven --jars group:jar-name:1.0
我想做这样的事情
spark-shell --repositories https://artifactory.com/pypi --jars zipname==1.0
这显然是行不通的,因为repositories
它应该是一个 maven repo 并且jars
应该是一个 jar 名称
我知道我可以事先下载 zip 文件并将其添加到 中PYTHONPATH
,但如果我可以通过坐标直接指向它会更好
解决方案
我找到了方法,您可以将远程路径传递给--py-files
,例如--py-files http://host:path_to_file/library.egg
推荐阅读
- javascript - 如何将“isTrusted”设置为 true(模拟 MouseEvent)?
- scala - 如何管理函数式编程中的状态层次结构?
- http-headers - `content-security-policy: default-src https:;` 以内联 1:1 阻止资源加载
- reactjs - 在浏览器中获取 refresh_token 时遇到问题。无法读取 XML 响应
- c# - 将 IntPtr 作为函数的参数传递会导致内存泄漏吗?
- racket - 如何“要求”没有#lang 标题行的 Racket 模块?
- windbg - 是否可以在 windbg 中调用 win32 调用?
- swift - 以自定义尺寸阅读图库视频
- mysql - 无法使用容器密码使用 mysql 不起作用
- mongodb - Robo3T 不显示数据库