apache-spark - 了解 Spark 版本
问题描述
当我在 shell 中给出时,它会在控制台中pyspark
显示 spark 版本。version 1.6.0
但是当我给spark2-submit --version
它说version 2.2.0.cloudera2
。
我想了解它们之间的区别以及运行 pyspark 的实际版本是什么?每当运行py
脚本时,我都会使用spark2-submit script.py
.
解决方案
在执行 Pyspark 之前,请尝试设置您的 spark 版本环境变量。尝试在您的终端上运行以下命令:
SPARK_MAJOR_VERSION=2 pyspark
推荐阅读
- c# - 从字符串值中提取数字
- reactjs - 从 API 获取数据到 React Chart Canvasjs
- javascript - 将 XML 文件中的每个子节点显示到 HTML 中的不同 div
- np - 子集和问题:输入:整数的有限子集 S 和整数 t
- r - 使用 dplyr 有条件地设置列名
- ios - 如何在不同的 UICollectionView 单元格中显示不同的视频?
- pyspark - 无法将 Spark 数据帧以镶木地板文件格式写入 PySpark 中的 C 驱动器
- html - 如何选择每个框进行样式设置,共有三个类,框子类只说框,但其中有 10 个
- ruby-on-rails - 如何格式化 HTTParty POST 请求?
- ruby-on-rails-6 - Rails ActionText:禁用直接上传