python - Spark:没有名为“编码”的模块
问题描述
我test.py
按如下方式提交给纱线。
spark-submit --master yarn \
--deploy-mode cluster \
--executor-memory 8g \
--driver-memory 10g \
--num-executors 100 \
--executor-cores 10 \
--conf spark.yarn.dist.archives=/home/ml_env/ml_env.zip#pyenv \
--conf spark.pyspark.python=./pyenv/bin/python3 \
test.py
在这里,我想导入一些python包,比如numpy,configparser包,所以我建立了一个名为ml_env
.
在ml_env
环境中,我首先使用virtualenv ml_env
, 和source activate
,然后我 pip installnumpy
和configparser
on ml_env
。
我test.py
的如下所示。
from pyspark import SparkContext
sc = SparkContext.getOrCreate()
import configparser
import numpy
if __name__ == "__main__":
data = [1, 2, 3, 4, 5]
distData = sc.parallelize(data)
print("done",distData.collect())
但我遇到一个错误:
Could not find platform independent libraries <prefix>
Could not find platform dependent libraries <exec_prefix>
Consider setting $PYTHONHOME to <prefix>[:<exec_prefix>]
Fatal Python error: initfsencoding: Unable to get the locale encoding
ModuleNotFoundError: No module named 'encodings'
解决方案
推荐阅读
- python - 如何使用 python selenium 单击 youtube 评论中的链接
- r - R ggplot stat_contour 返回一个我无法解决的错误
- php - 无法在同一页面表单提交上获取 PHP 请求
- android - 如何为 SearchView 投射 CustomEditText 而不是 EditText?
- javascript - 尝试使用 JS 对象填充组件但得到“函数作为 React 子无效”?
- asynchronous - 如何使用任务完成源
- c++ - 加载大 OBJ 文件会导致模型损坏?
- r - 机器特定的慢 read_excel 读取时间
- python - 特征提取 NLP
- php - 两次调用函数时未附加Ajax成功数据