apache-spark - E0401:无法在 Windows 10 的 VSCode 中导入 'pyspark
问题描述
我已经在我的 Windows 10 机器上安装了下面以使用 Apache Spark。
Java、Python 3.6 和 Spark (spark-2.3.1-bin-hadoop2.7)
我正在尝试在 VSCode 中编写 pyspark 相关代码。它在“来自”下方显示红色下划线并显示错误消息
E0401:无法导入“pyspark”
我还使用了 ctrl+Shift+P 并选择“Python:更新工作区 Pyspark 库”。它正在显示通知消息
确保您已将 SPARK_HOME 环境变量设置为本地 spark 安装的根路径!
怎么了?
解决方案
您将需要使用pip install pyspark
. 实际上,这是 VSCode 所需的唯一包,除非您还想在同一台机器上运行 Spark 应用程序。
推荐阅读
- php - 从以元素为键值php的数组生成数组元素
- mongodb - 在 Mongo 中填充后如何查询包含相同用户名的所有文档
- python - 我如何断言张量是 0 到 N `True`s,然后是 0 到 N`False`s 的序列?
- google-maps - 为两个变量(城镇名称)之间的距离生成谷歌地图网址
- maven - Gradle 依赖版本 '+'
- java - 如何删除工具栏左侧显示的默认菜单按钮?
- python - 应用程序中的错误:/predict [POST] 上的异常
- php - Laravel:树过滤子递归
- reactjs - 当电子邮件存在错误时如何防止表单提交以及如何在表单本身中设置值而不被重置
- python - Numpy直方图在小数据集上非常慢