apache-spark - Databrick连接在Linux的VsCode中引发错误?
问题描述
我正在尝试使用从 VS 代码连接的数据块。一切正常,它可以启动集群,但是在调用addjar
如下所示的依赖项时,我看到了数据块的异常
spark.sparkContext.addJar("target/scala-2.12/myjar.jar")
例外
Exception in thread "main" org.sparkproject.guava.util.concurrent.ExecutionError: java.lang.NoSuchMethodError: com.databricks.spark.util.MetricDefinitions$.METRIC_OPERATION_DURATION()Lcom/databricks/spark/util/MetricDefinition;
任何机构都遇到了类似的错误。我在网上看不到任何帮助。
解决方案
推荐阅读
- java - 从数据库存储和检索数据的最佳方法是什么
- antlr4 - 在 antlr4 解析语法中使用文字?
- c# - 是否可以在谷歌浏览器上的网络浏览器上输入 url 并将值返回到网络浏览器时访问 Windows 应用程序功能
- javascript - 在 Open Layers 中添加点,并在指针单击坐标的实际位置下方绘制几个像素
- python - 如何使用 cx_Oracle Python 连接到 Oracle ODBC 数据源?
- html - 在移动视图中对齐引导程序 4 列
- android - 捕获所有 AdMob 崩溃?
- android - 回收站查看物品装饰和查看标高
- javascript - 使用 JavaScript/PHP 调整图像画布大小
- ios - 在文本视图中使用 separatorBy 函数获取范围