apache-spark - 使用 mesos 的火花集群
问题描述
当我尝试使用 mesos 的 spark 集群时,作业失败了。
问题(失败的作业日志)
ser/mesos_agent/slaves/bf120f55-2e2b-4c50-8ba9-fb667f0266a7-S0/frameworks/bf120f55-2e2b-4c50-8ba9-fb667f0266a7-0001/executors/driver-20190401172856-0001/runs/fe4a8723-5663-4fed-885f-9578524bd069/spark-2.1.0-bin-hadoop2.7.tgz'
I0401 17:30:28.234169 2551 exec.cpp:161] Version: 1.0.0
I0401 17:30:28.235190 2548 exec.cpp:236] Executor registered on agent
bf120f55-2e2b-4c50-8ba9-fb667f0266a7-S0
JAVA_HOME is not set
那是我的配置
http服务器
使用python简单服务器:8080
http://simpleHttpServer/spark-2.1.0-bin-hadoop2.7.tgz
火花环境.sh
export JAVA_HOME=/home/pduser/jdk
export MESOS_NATIVE_JAVA_LIBRARY=/usr/local/lib/libmesos.so
export SPARK_EXECUTOR_URI=http://192.168.44.31:8000/spark-2.1.0-bin-
hadoop2.7.tgz
~/.bashrc
JAVA_HOME=/home/pduser/jdk
CLASSPATH=.:$JAVA_HOME/lib/tools.jar
HADOOP_HOME=/home/pduser/hadoop
export JAVA_HOME
export CLASSPATH
export HD_HOME=/home/pduser/hadoop
export HADOOP_PREFIX=$HD_HOME
export HADOOP_COMMON_HOME=$HD_HOME
export HADOOP_HDFS_HOME=$HD_HOME
export HADOOP_MAPRED_HOME=$HD_HOME
export HADOOP_YARN_HOME=$HD_HOME
export HADOOP_CONF_DIR=$HD_HOME/etc/hadoop
export YARN_CONF_DIR=$HD_HOME/etc/hadoop
export SPARK_HOME=/home/pduser/spark
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_PREFIX/bin:$SPARK_HOME/bin:
export PATH
解决方案
我解决了将JDK版本更改为OpenJDK 1.8的问题。
推荐阅读
- r - 如何根据第一行数将一个data.frame分成几个data.frames?或者当数字不是升序时分割 data.frame
- mips - 如何计算 MIPS 中的空格数?
- python - 如何在 Python 中比较元组中的元素
- c# - 按字自动完成 C#
- ios - 运行 sudo gem install fastlane -NV 会抛出错误安装 fastlane rubyzip 需要 ruby 版本 >= 2.4 时
- c++ - C++ 函数改变传递参数的值
- github - 如何从我的视图中删除 github 存储库
- algorithm - O(n^2) 时间和 O(1) 空间中的 3-Sum 问题
- python - 是否可以从 python 接收角度的 rpc-websocket json 请求?
- python - 如何在h5py中创建具有给定标签的不透明数据集