apache-spark - pyspark - spark 如何为 Python 解释器设置 *NIX 进程
问题描述
问题
PySpark 如何为 Python 解释器调用 UNIX 进程并设置 Python 环境(例如环境变量)?
Python 包管理具有以下代码,指定环境变量 PYSPARK_PYTHON。它是否会被传递到工作节点,并且 Python 解释器的 *NIX 进程也将具有 PYSPARK_PYTHON 环境变量?
export PYSPARK_DRIVER_PYTHON=python # Do not set in cluster modes.
export PYSPARK_PYTHON=./environment/bin/python
spark-submit --archives pyspark_conda_env.tar.gz#environment app.py
有没有办法为 Python 解释器进程指定 PYTHONPATH 环境变量,以便我们可以控制在哪里查找 Python 模块?
工作节点上的 Spark 执行器如何与 Python 解释器进程通信?有具体的协议吗?
有关的
解决方案
推荐阅读
- angular - 使用 Ionic/Cordova 从 Angular 10 发布时的标题
- multithreading - 用于检查 IPOPT 中 HSL 求解器 MA97 并行性的示例代码
- python - 如何使用 sns.kdeplot() 从热图中删除白色阴影/颜色?我只想要红色
- typescript - TypeScript: pass rejected promise as a parameter
- sql - 将 JSON 数组解析为 SQL 表
- php - 获取产品自定义属性以在 WooCommerce 产品循环中显示它们
- android - 如何在 OnClickListener 的回收器视图中获取 ArrayList?
- c++ - 为什么 std::unique_ptr 没有优化而 std::variant 可以?
- sql - 从 VBA 插入 - 访问
- python - Python super 和从子类设置父类属性