首页 > 解决方案 > Spark安装错误=>无法初始化编译器:找不到编译器镜像中的对象java.lang.Object

问题描述

我已经安装了 Java-11-openjdk-amd64 并在 usr/lib/jvm/Java-11-openjdk-amd64/bin/java 中自动运行它,在我的桌面上安装了 Scala 2.11.12 和 spark 2.2.0 和 hadoop 2.7在 Windows 10 上运行 linux mint VM 19.2。打开 spark-shell 时出错:

Failed to initialize compiler: object java.lang.Object in compiler mirror not found. 

我还在主目录的 .bashrc 文件中定义了变量,如下所示:

export JAVA_HOME=/usr/lib/jvm/Java-11-openjdk-amd64
export SCALA_HOME=/usr/local/src/scala/scala-2.11.12
export SPARK_HOME=/usr/lib/spark/spark-2.2.0-bin-hadoop2.7
export PATH=$SCALA_HOME/bin:$JAVA_HOME/bin:$SPARK_HOME/bin:$PATH

我该如何解决这个问题?我是否必须将其更改为 java 8 才能运行 spark?我正在尝试使用 update-alternatives --config java 在 java-8-openjdk-amd64 上运行它,但我无法更改所选的 java,因为它给了我另一个错误:permission denied.

由于无法手动操作,如何使用命令行将我的 java 8 移动到另一个文件夹?我是 Linux 和 Spark 的新手。

标签: javascalaapache-sparkhadoop

解决方案


您应该使用Spark ,Java 8因为 Spark 严重依赖于在.privatedeprecatedJava 9 and above

复制:https ://www.webservertalk.com/copy-directory-folder-linux-cmd


推荐阅读