首页 > 解决方案 > Apache Hadoop:错误:无法设置数据节点进程的优先级

问题描述

我有两台机器我想在 Hadoop/Yarn 上创建一个集群。IMAC 和 RAZER 都安装了带有 Hadoop 的 Ubuntu 20.04。两者都具有无需密码即可通信的 SSH 密钥。对于主人,我设置hdfs-site.xml如下:

<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop-3.2.1/data/nameNode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop-3.2.1/data/dataNode</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>

我设置core-site.xml如下:

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-3.2.1/hdfs/tmp</value>
<description>A base for other temporary directories</description>             
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.191:8020</value>
</property>
</configuration>

我表演过hdfs namenode -format,甚至表演过chmod 777 /usr/local/hadoop-3.2.1

当我执行hstart(start-dfs.sh) 时,我收到以下错误:

Starting namenodes on [192.168.1.191]
Starting datanodes
@192.168.1.121: ERROR: Cannot set priority of datanode process 134254
Starting secondary namenodes 

我无法让远程机器显示在仪表板上的活动节点上。我已经尝试了大多数论坛及其建议,但我仍然遇到这个问题,请帮助。谢谢,

标签: hadoophdfs

解决方案


推荐阅读