scala - 在 hadoop 集群上提交 spark JAR 时出现 ClassNotFoundException 问题
问题描述
从 hadoop 集群运行 .JAR 时,我面临以下故障,并且此 .JAR 文件是使用 Intellij 生成的。有人可以帮助解决这个问题。
- 面对错误:
错误 yarn.ApplicationMaster:未捕获的异常:java.lang.ClassNotFoundException:scalaSparkHiveSample
- 项目代码:
import org.apache.spark.sql.SparkSession
object scalaSparkHiveSample {
def main(args: Array[String]): Unit = {
val spark=SparkSession
.builder
.appName("SampleSparkPrg")
.config("spark.master","local")
.enableHiveSupport()
.getOrCreate()
val sampleSeq=Seq((1,"spark"),(2,"Hive"))
val df=spark.createDataFrame(sampleSeq).toDF(colNames = "sno","name")
println("DF Created")
df.show()
}}
- 提交命令:
spark2-submit --class scalaSparkHiveSample --queue <--> /development/ph9/data/SReddy/UHAP_AE_Project-v1.jar
解决方案
推荐阅读
- clojurescript - 使用 Clojurescript 需要 javascript :bundle
- c# - 为什么我的 OpenGL ES 应用程序在 glDrawElements 上崩溃?
- python - 使用 Http404 传入的 Django 测试消息
- javascript - Discord.js:一次静音多个用户
- android - 从 url 获取原始文件数据并在 ImageView 中显示
- typescript - Typescript 获取值为字符串的对象键
- sql - 如何选择大小不确定的数组的属性(SQL Server)
- java - 语言未设置为默认 Android Studio
- java - Java进程成功执行“pdflatex”但生成空的.pdf文件
- spring-boot - Swagger 和 Jackson 依赖项的组合无效?