pyspark - 将 Jar 文件添加到 Jupyter 笔记本 - : java.lang.ClassNotFoundException: com.teradata.jdbc.TeraDriver
问题描述
我得到了一个使用这个 bash 脚本运行的 pyspark 脚本:
现在我在 jupyter notebook 上运行 pyspark 脚本。我像这样添加了 teradata jar:
但是,当我稍后尝试使用“spark.read.jdbc”运行查询以检索 teradata 数据时,出现此错误:
我可以知道如何解决这个问题吗?
解决方案
尝试这个。
os.environ['PYSPARK_SUBMIT_ARGS'] = '--jars /jar/path/ pyspark-shell'
推荐阅读
- c# - 使用异步存储库模式 - 无法访问已处置的对象
- javascript - 为什么它给出一个错误 can't be able to read property style
- arrays - 在空间中找到靠近另一个数组的数组元素?
- terraform - 如何将对象变量用作块?
- postgresql - 如何在服务器上安装应用程序?
- google-analytics - 谷歌分析点击次数和会话数的问题
- html - 如何在 tvOS 自定义应用程序中包含基于 HTML5 的游戏?
- javascript - 如何在一个脚本中将功能组合到多个工作表
- delphi - 如何在运行时模式下停止 SAPI 的执行
- excel - 读取托管在远程服务器中的 excel 文件