python - pyspark 中的 Java
问题描述
我是 pyspark 的新手。现在我在连接到 postgresql 时遇到问题。这是我的代码
import os
import sys
import findspark
from pyspark.sql import SQLContext
from pyspark import SparkContext
from pyspark.sql.functions import upper
from pyspark.sql import SparkSession
spark_path = r"D:\Programs\Anaconda\envs\longnv\Lib\site-packages\pyspark" # spark installed folder
os.environ['SPARK_HOME'] = spark_path
findspark.init()
spark = SparkSession.builder.config("spark.jars", "D:/Programs/postgresql-42.2.23.jar").getOrCreate()
结果不是我预期的:
Java gateway process exited before sending its port number
我试过只使用spark = SparkSession.builder.getOrCreate()
,我没有看到错误。我什至可以创建一些 df 并使用该会话测试一些功能。但是当我在其中添加罐子时,代码就不起作用了。
解决方案
推荐阅读
- typescript - 如何创建异步和等待循环,直到使用打字稿获得结果?
- javascript - Javascript - 检查是否最后是空的
- git - git“浅层克隆+非浅层”与“普通克隆”
- reactjs - Github 上 React 组件目录的问题
- pyspark - 在 Databricks 中清理 Delta 表不起作用
- ajax - firefox/cors 不允许在 POST 请求中使用 application/json contentType?
- c++ - 如何处理 QTcpServer 中的 TLS 握手超时?
- python - 尝试加载 PyTorch 模型时出现大小不匹配运行时错误
- python - 在文本框 Tkinter 中打印 numpy 输出
- c# - 根 Pickles_FeatureDirectory 上的 Pickles 解析错误