首页 > 技术文章 > hadoop Nodes of the cluster 中Node HTTP Address地址全部错误显示为localhost的解决办法

zh672903 2020-12-10 12:50 原文

hadoop Nodes of the cluster 中Node HTTP Address地址全部错误显示为localhost的解决办法

配置完hadoop spark环境后,用Wordcount来测试hadoop集群,发现Job一直执行超时,打开hadoop管理界面,查看Nodes发现Node HTTP Address显示的路径为localhost:端口,因为我配置的是集群非单机,所以这是不对的。

解决方法

对应修改的host文件,在各节点服务器上分配修改主机名同HOST文件的一致即可,比如host文件配置如下:

192.168.242.140 worker1
192.168.242.141 worker2
192.168.242.139 master

  • 1、 对应上面host文件,在主节点master上执行
vim /etc/hostname

删掉原来的内容,改为master

  • 2、 对应上面host文件,在重节点worker1上执行
vim /etc/hostname

删掉原来的内容,改为worker1

  • 3、 对应上面host文件,在重节点worker2上执行
vim /etc/hostname

删掉原来的内容,改为worker2

推荐阅读