首页 > 解决方案 > 如何在 conda 环境中设置 pyspark?

问题描述

这是我运行的所有命令(以相同的顺序):

conda create --name python_db python
conda activate python_db
conda install python
conda install pyspark

然后当我运行时pyspark,我收到以下错误:

Missing Python executable 'python3', defaulting to 'C:\Users\user\Anaconda3\envs\python_db\Scripts\..' 
for SPARK_HOME environment variable. Please install Python or specify the correct Python executable in 
PYSPARK_DRIVER_PYTHON or PYSPARK_PYTHON environment variable to detect SPARK_HOME safely.

我该如何解决这个问题?

标签: pythonpysparkanacondaconda

解决方案


推荐阅读