pyspark - 如何使用已安装的软件包运行 PySpark?
问题描述
通常,当我运行时pyspark
,graphframes
我必须使用以下命令:
pyspark --packages graphframes:graphframes:0.8.1-spark3.0-s_2.12
在第一次运行时,这将安装软件包graphframes
,但下次不会。在.bashrc
文件中,我已经添加了:
export SPARK_OPTS="--packages graphframes:graphframes:0.8.1-spark3.0-s_2.12"
但是如果我不添加选项,我将无法导入包--packages
。
如何pyspark
使用graphframes
这个简单的命令运行?
pyspark
解决方案
你可以制作一个像myspark.sh
triggers这样的包装脚本pyspark --packages graphframes:graphframes:0.8.1-spark3.0-s_2.12
,这将是最简单的解决方案。
推荐阅读
- r - 使用 ggplot2 绘制十年来包含相同 2 个月的直方图
- python - Pandas - 在非唯一日期合并两个 df(外部连接)
- php - 在一组中将数据从 jQuery 传递到 PHP 文件
- python-3.x - 如何让 Python 的 os.path.realpath 返回 Windows 替代驱动器上的“真实”路径?
- amazon-web-services - 在 Kubernetes 中设置 c.cfg.Global.ElbSecurityGroup
- functor - 理解自然变换的水平组成的困惑
- excel - Excel Vba 表值,有谁知道如何在这些单元格中写入正确的值?
- kubernetes - 如何将一个不同的 Secret 挂载到 StatefulSet 管理的每个 Pod 中?
- java - logger 在课堂上的位置应该是什么?
- java - 将位图图像存储到对象 Anroid