python - 如何在 conda 环境中设置 pyspark?
问题描述
这是我运行的所有命令(以相同的顺序):
conda create --name python_db python
conda activate python_db
conda install python
conda install pyspark
然后当我运行时pyspark
,我收到以下错误:
Missing Python executable 'python3', defaulting to 'C:\Users\user\Anaconda3\envs\python_db\Scripts\..'
for SPARK_HOME environment variable. Please install Python or specify the correct Python executable in
PYSPARK_DRIVER_PYTHON or PYSPARK_PYTHON environment variable to detect SPARK_HOME safely.
我该如何解决这个问题?
解决方案
推荐阅读
- node.js - 使用组在 MongoDB 中使用集合范围聚合查询的慢查询
- azure - Azure ARM 模板如何将副本用于多个部分
- sql - 在 SQL 中使用修改后的关系复制同一表中的数据
- javascript - 当我现在的月份是任何一年的 12 月时,如何显示下个月?- JavaScript
- javascript - 有没有比 js 中的 location.href 更好的将页面重定向到另一个 JSP 的方法?
- xamarin - 应用程序未安装在 xamarin
- python - 从另一个区域连接到 DocumentDB
- java - - java.lang.IllegalArgumentException:无效的网址:
- python - Redis容器 - 一段时间后返回超时
- nativescript - Nativescript的android平台不支持ListviewLinearLayout itemWidth