pyspark - 获取sparkcontext时的pyspark java网关问题
问题描述
这是代码:
from pyspark import SparkContext
sc = SparkContext.getOrCreate();
获取 sparkcontext 时,出现此错误:
File "C:\Users\jv219\AppData\Local\Continuum\Anaconda2\lib\site-packages\pyspark\java_gateway.py", line 93, in launch_gateway
raise Exception("Java gateway process exited before sending its port number")
Exception: Java gateway process exited before sending its port number
我是pyspark的新手,请看看这个,非常感谢。
解决方案
推荐阅读
- database - 快读快写多索引数据库
- c++ - 如何使用基类的 + 运算符然后返回派生类?
- azure-data-explorer - 使用 Azure 数据资源管理器使用动态值汇总和透视数据集中的数据
- python - 检测变量并在设置脚本中获取其值
- laravel - 动态接收id和model
- postgresql - Nginx tcp 流反向代理
- c# - C# Directory.GetFolder 对文件夹进行排序并将它们设置为 List<> 而不会丢失内存并执行额外的排序操作
- python - Python cProfile/pstats 导致溢出?
- reactjs - 条件反应文本掩码渲染
- python - 返回与其元组的第二个元素中的最大值链接的字典键