python-3.x - Spark worker 和 Spark 驱动程序中的 python 版本不匹配
问题描述
例外:worker 中的 Python 2.7 版本与驱动程序 3.5 中的版本不同,PySpark 无法使用不同的次要版本运行。请检查环境变量 PYSPARK_PYTHON 和 PYSPARK_DRIVER_PYTHON 是否设置正确。
如何更改工作人员中的 python 版本?(我在独立模式下使用 Spark)
解决方案
一定是因为你的系统python指向3.5。理想情况下,您应该在运行脚本之前将 PATH 变量设置为指向 PySpark Python,例如 PATH=your anaconda 或 cloudera bin path:$PATH,并且所有内容都将自动同步。不要使用系统 python 来执行 pyspark 作业,因为驱动程序和执行程序可能会出现不一致。
推荐阅读
- python-3.x - TensorFlow 如何从 s3 字节流中读取文件
- microsoft-graph-api - 如何使用 msgraph-sdk-java 更新用户个人资料照片?
- reactjs - 如何将单个组件用作带有 react-native tabview 的新实例
- java - 我们可以在生产系统上免费使用 zulu jdk 1.8 吗?
- matlab - 如何在 Matlab/Simulink 中获取有关错误“来自非结构数组对象的结构内容引用”的详细信息?
- reactjs - 在 React 中导入引导 CSS 无法编译
- paw-app - 移除 Paw 中的所有 URL 参数
- java - 递归创建完整且完整的二叉树
- javascript - 菜单下拉 JQuery
- c++ - 如何使用 CMake 链接库