apache-spark - Yarn 上的 Spark 无法发送 RPC 和 Slave 丢失
问题描述
我想在Yarn,Hadoop2.7.3上部署spark2.3.2。
但是当我运行时:
spark-shell
总是提出错误:
ERROR TransportClient:233 - Failed to send RPC 4858956348523471318 to /10.20.42.194:54288: java.nio.channels.ClosedChannelException
...
ERROR YarnScheduler:70 - Lost executor 1 on dc002: Slave lost
dc002 和 dc003 都会引发 ERRORsFailed to send RPC
和Slave lost
.
我有一个主节点和两个从节点服务器。它们都是:
CentOS Linux release 7.5.1804 (Core)
具有 40 cpu 和 62.6GB 内存以及 31.4 GB 交换空间。
我的HADOOP_CONF_DIR
:
export HADOOP_CONF_DIR=/home/spark-test/hadoop-2.7.3/etc/hadoop
我的/etc/hosts
:
10.20.51.154 dc001
10.20.42.194 dc002
10.20.42.177 dc003
在 Hadoop 和 Yarn Web UI 中,我可以看到 dc002 和 dc003 节点,我可以在 hadoop 中对 yarn 运行简单的 mapreduce 任务。
但是当我运行spark-shell
或SparkPi
示例程序时
./spark-submit --deploy-mode client --class org.apache.spark.examples.SparkPi spark-2.3.2-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.3.2.jar 10
, 错误总是引发。
我真的很想知道为什么会发生这些错误。
解决方案
我通过更改yarn-site.xml
conf 文件解决了这个问题:
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
推荐阅读
- django - 如何将表格列表添加到我的 Django 管理员?
- python - 有没有办法从 python 脚本运行终端命令?
- git - 使用 git OAuth 令牌克隆 Repo
- android - 将小部件添加到自定义小部件主机时出现奇怪的行为
- javascript - 如何在不同的选项卡上重新初始化 Splider Slider(引导程序)
- javascript - 如何使用 Nodejs 后端将文件上传到 MySQL 数据库并显示照片
- docker - 从 minio 服务器获取对象而不将额外数据传递到 URL
- sql-server - 当作业在 10 分钟内仅失败五次时寻找作业通知
- html - How to make smooth scrolling in CSS?
- razor-pages - 编译器不再生成 Views 程序集并且页面名称被混淆